Glossar
A wie AaaS (Analytics as a Service)
A wie AaaS (Analytics as a Service)
Der Begriff „Analytics as a Service“ (AaaS) beschreibt die Bereitstellung von Software zur Analyse von Geschäftsprozessen mithilfe von Web-Technologien. AaaS ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Analyseprozesse durchzuführen. Business Analytics als Serviceleistungen wird für Unternehmen immer interessanter, da der Aufbau und die Implementierung interner Analyseprozesse ein arbeits- und kostenintensiver Prozess werden kann. Je nach Umfang und Komplexität der durchzuführenden Analysen benötigen Unternehmen ggf. deutlich mehr Server und andere Arten von Hardware und zwangsläufig mehr Mitarbeiter im IT-Bereich und je Unternehmensstruktur im Controlling oder im Business Analytics. Dem gegenüber gewährt ein Anbieter von Analytics-as-a-Service gegen eine monatliche Gebühr Unternehmen den Zugriff auf eine Remote-Analyseplattform.
A wie A/B-Testing
Das A/B-Testing ist eine Methode, mit der zwei Varianten einer Sache miteinander verglichen werden um festzustellen, welche effizienter ist oder die bessere Performance erzielt. Die auch als Split-Testing bekannte Methode wird häufig im Zusammenhang mit dem Vergleich einer Website oder App genannt, allerdings besteht diese schon länger als das Internet. Der britische Biologe und Statistiker Ronald Fisher entwickelte diese Methode mithilfe der Mathematik in den 1920-er Jahre und legte den Grundstein, um mindestens zwei verschiedene Erfahrungen wissenschaftlich zu untersuchen. Fishers Methode wurde in vielen Branchen angewendet u. a. in der Auswertung von klinischen Studien. In den 1960-er Jahren wurde die Methode im Marketing aufgegriffen. Das A/B-Testing, wie es heute bekannt ist, existiert allerdings erst seit den 1990-er Jahren und war vor allem im Direktmarketing eine geschätzte Methode. Die beiden Varianten werden A und B genannt und den Nutzern nach dem Zufallsprinzip angezeigt. Ein Teil der Nutzer gelangt zur ersten Variante, ein anderer Teil zur zweiten. Mittels einer statistischen Analyse wird die Effizienz von Version A und Version B hinsichtlich verschiedener Indikatoren wie z. B. der Conversion Rate getestet. Somit kann schon in der Testphase ermittelt werden, welche Version z. B. zu den meisten Klicks, Registrierungen, Abonnements, Käufen und dgl. führt, um darauf eine gezielte Marketingstrategie zu entwickeln. Aufgrund der technologischen Entwicklung gibt es heute spezielle A/B-Testing-Tools für die Durchführung und Auswertung solcher Tests und Indikatoren.
Es gibt verschiedene Arten vom A/B-Testing. Beim klassischen A/B-Test werden den Nutzern zwei oder mehrere Varianten (Dummy) einer Seite gezeigt und wie oben erwähnt verglichen. Beim Split-Test oder Weiterleitungstest wird der Traffic an eine andere oder mehrere andere URLs weitergeleitet und beim →multivariaten Test (MVT) wird gemessen, wie sich mehrere veränderte Elemente auf ein und derselben Seite auswirken. Dies können grafische Elemente sein wie z. B. einzelne Bilder oder das gesamte Design, Schriftfarbe oder -größe, Fotos oder Banner und dgl., aber auch Inhalte. Mit diesem Test wird überprüft, welche Kombination die beste Leistung erzielt.
A wie A/B/N-Testing
A/B/N-Testing ist ein erweitertes →A/B-Testing. Während beim herkömmlichen A/B-Testing zwei Versionen einer Sache miteinander verglichen und getestet werden, bezieht sich die Variable N auf mehr als zwei Versionen, also von der zweiten Version bis zur „n-ten“ Version.
A wie Accelerator
Ein Accelerator ist ein systematisches Aufbauprogramm für →Startups und beinhaltet die professionelle Betreuung und Unterstützung von jungen Unternehmen. Neben der rein finanziellen Unterstützung enthalten Accelerator-Programme weitere Komponenten wie z. B. den Zugang zu Netzwerken, das Bereitstellen von Ressourcen, Infrastruktur und Kompetenzen. Hinzu kommt ein professionelles Mentoring-Programm und ein gezieltes Expertencoaching. Alle Maßnahmen konzentrieren sich auf die Skalierung, Optimierung und Beschleunigung des Geschäftsmodells und darauf, die Markteinführung eines →Minimum Viable Products (MVP) mit möglichst geringen Investitionen zu beschleunigen. Dies geschieht in der Regel in einem späteren Entwicklungsstadium, in dem ein Startup seinen bevorstehenden Markterfolg und ein Wachstumspotenzial über einen definierten Zeitraum nachweisen muss. Auch wenn Accelerator- und Inkubator-Programme einige Gemeinsamkeiten und Überschneidungen aufweisen und oft synonym genannt werden, gibt es feine Unterschiede. Diese liegen im Alter der Unternehmen und dem Entwicklungsstand der Geschäftsidee. Ein Accelerator verfolgt in der Regel das Ziel, das Wachstum eines bereits vorhandenen Geschäftsmodells zu beschleunigen. Bei einem →Inkubator dagegen steht vor allem die Entwicklung einer Geschäftsidee im Vordergrund, weshalb er oft als „Brutkasten“ bezeichnet wird. Der Accelerator dagegen ist als eine Art „Wachstumsbeschleuniger“ zu verstehen. Als Gegenleistung für die Unterstützung und Betreuung müssen Startups in der Regel Geschäftsanteile an ihrem Unternehmen abgeben. Die Dauer eines Accelerator-Programms ist in den meisten Fällen auf drei bis sechs Monate ausgelegt.
A wie Additive Fertigung
→3D-Druck
A wie Affective Computing
Affective Computing steht im Bereich der künstlichen Intelligenz für das Sammeln von Daten aus Mimik und Gestik, um menschliche Emotionen zu messen. Möglich wird das Sammeln der Emotionen, wie z. B. Muskelspannung und -entspannung, Körperhaltung, Herzfrequenz, Pupillenerweiterung oder Körpertemperatur, durch Sensoren, Kameras, Deep Learning und Big Data. Affective Computing, auch bekannt als Emotion Artificial Intelligence, soll dazu beitragen, die Interaktion mit Maschinen und künstlicher Intelligenz zu humanisieren. Die Potenziale sind vielfältig. In allen Bereichen des Lebens können sich „emotionale“ Maschinen optimal auf Menschen in einer individuellen Situation einstellen und die Interaktion mit diesen verbessern. Affective Computing wird somit die Lücke zwischen menschlicher Emotion und Maschine noch weiter schließen und so ermöglichen, dass Menschen zur Robotik und künstlicher Intelligenz mehr Vertrauen aufbauen werden.
A wie Agentur für Sprunginnovation (SPRIND)
Die Agentur für Sprunginnovation (kurz SPRIND) wurde 2019 vom Bundesministerium für Bildung und Forschung (BMBF) und dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ins Leben gerufen. Ihre Aufgabe liegt in der finanziellen Förderung von →Sprunginnovationen und Ideen, die das Potenzial zur Sprunginnovation haben. Ziel ist es, hochinnovative Ideen zu identifizieren, zu unterstützen und zu beschleunigen und anschließend auf dem Markt zu etablieren. Hierzu wurde ein Netzwerk geschaffen, in dem Experten aus Wirtschaft und Wissenschaft zusammenarbeiten. Sie hat mit der US-amerikanischen →DARPA ein großes Vorbild und ein noch größeres Ziel: Deutschland wieder an die Weltspitze bahnbrechender Technologien und disruptiver Innovationen heranzuführen. Auch wenn SPRIND für Sprunginnovationen in Deutschland steht, ist es ein Anliegen der Agentur, die innovativsten Köpfe aus verschiedenen Ländern möglichst früh zusammenzubringen und international zu vernetzen. Einer der wichtigen Partner ist hierbei der →Europäische Innovationsrat (EIC), der Innovationen auf europäischer Ebene vorantreibt und somit die Wettbewerbsfähigkeit der Europäischen Union im globalen Wettbewerb um Schlüsseltechnologien unterstützt.
A wie Agiles Manifest
Das agile Manifest (im Original „Manifesto for Agile Software Development”) wurde 2001 von einer Gruppe renommierter Softwareentwickler formuliert. Es bildet das Fundament im agilen Projektmanagement, da Entwicklungsprojekte von Software eine hohe Komplexität aufweisen und die technologische Entwicklung sehr dynamisch verläuft. Außerdem brauchen diese Projekte viele unterschiedliche Kompetenzen und eine flexible Umsetzung. Zwangsläufig mussten agile Prinzipien in einer Branche entwickelt werden, die schon vor über 20 Jahren an die Grenzen linearer Wasserfall-Modelle gestoßen ist.
Das agile Manifest wird durch vier Leitsätze gebildet und stellt diese zur Verdeutlichung seiner Kernaussagen den herkömmlichen bzw. traditionellen Vorgehensmodellen gegenüber. „Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen gelernt:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als eine umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlung.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.“
Dies bedeutet, dass der Mensch im Fokus steht und der direkte Austausch untereinander wichtiger ist als Formalismen. Anders ausgedrückt: auch der beste Prozess kann ein persönliches Gespräch nicht ersetzen. Nicht ohne Grund organisieren sich agile Teams in gemeinsamen Räumlichkeiten, um eine enge Zusammenarbeit und pragmatische Kommunikation sicher zu stellen. Der zweite Leitsatz bringt die hohe Fokussierung auf Werte, Lösungen und Ergebnisse zum Ausdruck. Agile Teams suchen konkrete Lösungen und streben Arbeitsergebnisse an, anstatt sich mit aufwändigen Dokumentationen oder der Gestaltung von Präsentationen aufzuhalten. In herkömmlichen Organisationen mit klassischer Projektkultur werden nicht selten mehr Ressourcen in die Erstellung von Powerpoints verwendet, um Lenkungsausschüsse oder Entscheidungsgremien zu überzeugen als in die Erledigung der eigentlichen Projektaufgabe. Der Kunde hat in der Projektarbeit agiler Teams die zentrale Bedeutung, ist Teil des Prozesses und mit seinen Bedarfen und Bedürfnissen, Problemen und Wünschen quasi immanenter Teil des Teams. Ausgeprägtes Zielgruppenverständnis und Kundenempathie sowie regelmäßiger Austausch sind wichtiger als Formalien wie z. B. Verträge. Dies bedingt schon allein der dritte Leitsatz, da agile Teams sehr flexibel, dynamisch, adaptiv und iterativ arbeiten. Das schnelle und angemessene Reagieren auf Veränderungen ist wichtiger als das sture Befolgen eines statischen Plans. Häufig wird diese Eigenschaft als planlos, chaotisch, willkürlich oder sprunghaft ausgelegt, ohne zu erkennen, dass agile Teams in erster Linie auf ein Ziel fokussiert sind und auf dem Weg dahin von ihrem ursprünglichen Plan abweichen, wenn es sinnvoll und zielführend erscheint. Diese vier Leitsätze sind das Grundgerüst, das durch zwölf Prinzipien weiter konkretisiert und operationalisiert wird. Sie bilden den Handlungsrahmen für agile Teams.
- “Our highest priority is to satisfy the customer through early and continuous delivery of valuable software” (Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche Auslieferung wertvoller Software zufrieden zu stellen). Kunden werden nicht nur als Auftraggeber gesehen, sondern als Teil der Entwicklung. Infolgedessen werden sie aktiv und frühzeitig mit einbezogen, in dem sie in die Meilensteine und Arbeitsergebnisse mit eingebunden werden. Somit können mögliche Fehlentwicklungen rechtzeitig erkannt und gegengesteuert werden.
- “Welcome changing requirements, even late in development. Agile processes harness change for the customer’s competitive advantage“ (Selbst späte Anforderungsänderungen in der Entwicklung sind willkommen. Agile Prozesse nutzen Veränderungen zum Wettbewerbsvorteil des Kunden). Dieses Prinzip darf nicht falsch verstanden werden. Es geht nicht darum, Projekte nicht von Anfang an bis zum Ende durchzuplanen und Anforderungen willkürlich zu ändern. Das agile Manifest möchte starre Strukturen aufbrechen und ein stures Festhalten an einem ursprünglich verabschiedeten Vorgehen vermeiden. Neue Anforderungen durch ein Feedback von Kunden oder Marktveränderungen müssen bis zum Schluss möglich sein und sollen den Erfolg eines Projektes sicherstellen. Für die Projektkultur ist wichtig zu differenzieren, ob Änderungen zu einem späten Zeitpunkt unvorhersehbar waren oder auf eine unzureichende Planung oder schlechte Kommunikation zurück zu führen sind.
- „Deliver working software frequently, from a couple of weeks to a couple of months, with a preference to the shorter timescale“ (Liefere funktionierende Software regelmäßig innerhalb weniger Wochen oder Monate und bevorzuge dabei die kürzere Zeitspanne). Die Arbeit in kurzen Zeitintervallen ist ein Grundprinzip im agilen Projektmanagement und basiert auf der Erkenntnis, dass zu lange Planungsphasen Unsicherheit und Risiko erhöhen. Man bezeichnet dieses Phänomen auch als “Cone of uncertainty”. Hierbei hat sich die Regel bewährt: je unbekannter oder riskanter ein Projektziel ist, umso kürzer sollten die Intervalle angesetzt werden. Der zweite Teil, ein konkretes und funktionierendes Arbeitsergebnis abzuliefern, sollte selbstverständlich sein.
- „Business people and developers must work together daily throughout the project“ (Fachexperten und Entwickler müssen während des gesamten Prozesses eng zusammenarbeiten). Dieses Prinzip ist eine Spiegelung der Realität in herkömmlichen Organisationen, die oft linear und hintereinander gekoppelt agieren. Anforderungen werden vom internen Auftraggeber formuliert und im Anschluss durch einen internen oder externen Auftragnehmer umgesetzt. Schließlich versteht der Auftraggeber etwas vom Business und der Auftragnehmer etwas von Software oder dgl. Jeder hat seine Kompetenzen und soll diese nach Zuständigkeiten einbringen. Agile Teams arbeiten so nicht. Für sie ist selbstverständlich, dass agile Teams interdisziplinär zusammen gesetzt sind und jeder Spezialist Teil des Projektteams sein muss, um gemeinsam ein lösungsorientiertes Ergebnis mit Mehrwert für den Kunden zu entwickeln.
- „Build projects around motivated individuals. Give them the environment and support they need, and trust them to get the job done” (Errichte Projekte rund um motivierte Menschen. Gib ihnen das Umfeld und die Unterstützung, die sie benötigen und vertraue darauf, dass sie die Aufgabe erledigen.“ Agile Teams sind überzeugt, dass Menschen autonom, kreativ und selbstorganisiert handeln. Deshalb setzen sich agile Teams auch nicht aus Menschen zusammen, die in ihren jeweiligen Fachabteilungen die höchste Kompetenz aufweisen, sondern hoch motiviert sind und ihren Handlungsspielraum kundenzentriert und im Sinne des Unternehmens ausüben. Dies funktioniert in erster Linie durch volles Vertrauen und Rückendeckung durch das Top-Management.
- „The most efficient and effective method of conveying information to and within a development team is face-to-face conversation“ (Die effizienteste und effektivste Methode, Informationen an und innerhalb eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu Angesicht). Offene, transparente und vor allem persönliche Kommunikation ist das wirkungsvollste Instrument. Nur so können sich agile Teams synchronisieren, nachhaltige Entscheidungen treffen und evtl. Spannungen klären bzw. Konflikte lösen.
- “Working software is the primary measure of progress“ (Funktionierende Software ist das wichtigste Fortschrittsmaß). Dies bedeutet, dass der Projektfortschritt auf Basis konkreter und vorzeigbarer Ergebnisse sowie durch Kundenfeedback zu bewerten ist. Theoretische Abhandlungen jeglicher Art gehören der Vergangenheit an. Jede Form von Ergebnissen, die eine Beurteilung des Projekterfolgs ermöglichen oder auch belegen, dass gewisse Annahmen ursprünglich nicht aufrechterhalten werden konnten oder Entscheidungen falsch waren, sind willkommen. Auch Learnings tragen dazu bei, zukünftig Ressourcen besser einzusetzen, Verschwendung zu vermeiden und Ergebnisse zu optimieren.
- „Agile processes promote sustainable development. The sponsors, developers, and users should be able to maintain a constant pace indefinitely” (Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber, Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte Zeit halten können). Kontinuität ist eine wichtige Voraussetzung, um agiles Arbeiten implementieren zu können. Agile Denk- und Arbeitsweise kann man nicht in einem mehrstündigen Workshop lernen. Man braucht ein aktives Projektcoaching, das regelmäßig stattfindet und situativ eingreift. Nur so können agile Werte entwickelt und agile Methoden implementiert werden. Dies geschieht durch kontinuierliches Ausprobieren und Anpassen, einen offenen Dialog und Selbstreflektion und vor allem die Bereitschaft, sich „konstruktiv zu reiben“ – immer im Sinne des Projekts und seiner Zielsetzung und -erreichung.
- „Continuous attention to technical excellence and good design enhances agility“ (Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert Agilität). Technische Exzellenz meint im übertragenen Sinne die „Liebe zum Detail”. Ein durchstrukturiertes Projekt mit einem hohen Detaillierungsgrad minimiert das Auftreten von zu erwartenden Problemen oder Fehlern, reduziert das Kostenrisiko und vermeidet unnötiges Nacharbeiten, wodurch Motivation des Teams und Zufriedenheit des Kunden steigt. Ein fehlender Qualitätsanspruch führt gerade bei technischen Systemen zu exponentiell wachsenden “costs of ownership” bis zu dem Punkt, dass ein System neu entwickelt werden muss. Design hat im Kontext von Agilität mehrere Bedeutungen. Gestaltung, Struktur, Prozesse, Services, Produkte sowie Geschäftsmodelle müssen einfach und idealerweise intuitiv sein. Dies vermeidet Komplexität und Abhängigkeit.
- “Simplicity – the art of maximizing the amount of work not done – is essential (Einfachheit – die Kunst, die Menge nicht getaner Arbeit zu maximieren – ist essenziell). Für agile Teams geht es in erster Linie darum, dass ihr Ergebnis einen wirklichen und messbaren Mehrwert aus Sicht des Kunden hat. Qualität statt Quantität, nicht anders sein, sondern besser sind die Maxime im agilen Projektmanagement.
- „The best architectures, requirements, and designs emerge from self-organizing teams“ (Die besten Architekturen, Anforderungen und Entwürfe entstehen durch selbstorganisierte Teams). Damit agile Teams erfolgreich sein können, brauchen sie ein hohes Maß an gegenseitigem Vertrauen, eine positive Fehlerkultur und Konfliktbereitschaft. Denn nur wenn unterschiedliche Perspektiven, Erfahrungen und Expertise in einem heterogen Team einfließen, entstehen innovative Ideen mit einem hohen Potenzial, erfolgreich umgesetzt zu werden. Dazu brauchen agile Teams keinen Supervisor, Mentor oder Manager.
- „At regular intervals, the team reflects on how to become more effective, then tunes and adjusts its behavior accordingly“ (In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden kann und passt sein Verhalten entsprechend an). Eine der Methodenkompetenzen von agilen Teams sind Retrospektiven. In fest definierten Abständen gibt es Manöverkritik, um die Zusammenarbeit kontinuierlich zu verbessern. Hierbei geht es selten um einzelne Mitglieder und immer um das Team. Diese Feedbacks sind Ausdruck über die Fehler- und Meeting-Kultur im Kleinen sowie Teams- und Unternehmenskultur im Großen.
A wie Agile Tool Cards
Agile Tool Cards sind ein von Brainbirds entwickeltes Karten-Set, das in der agilen Organisationsentwicklung eingesetzt werden kann. Auf 53 Karten werden praxisorientiert und sehr anschaulich die verschiedenen Themen aufbereitet, die für Transformation und Agilität entscheidend sind. Hierbei wird differenziert von der übergreifenden Ebene “Kultur & Mindset“ über agile „Methoden & Prozesse“ bis hin zu den „Werkzeugen & Techniken“, die ein schnelles und effizientes Arbeiten ermöglichen. Das Karten-Set unterstützt Fach- und Führungskräfte bei der Vermittlung und Anwendung dieser Themen – im Einzelcoaching, Teamtraining oder Anwendung in der gesamten Organisation. Jede Karte beinhaltet eine thematische Übersicht, eine genaue Beschreibung der Anwendung, Empfehlungen für Templates & Materialien sowie nützliche Tipps für die praktische Umsetzung der Konzepte. Zu den Themen gehören:
- Kultur & Mindset wie z. B. Entwicklung einer Unternehmenskultur, VUCA-Welt, Digitale Transformation, Agiles Mindset, Leadership & Management in der digitalen Arbeitswelt oder Customer Centricity
- Design Thinking wie z. B. Co-Creation, Prototyping und Testing, Personas oder Google Sprint
- Business Model Generation wie z. B. Entwicklung von neuen Geschäftsmodellen, Analyse und/oder Innovation bestehender Geschäftsmodelle, Business Model Canvas, Lean Canvas, Monetarisierung von Geschäftsmodellen oder Value Proposition
- Lean Startup wie z. B. Iterative Produktoptimierung, MVP (Minimum Viable Product), Produktentwicklung mit Hilfe der Build-Measure-Learn-Zyklen oder Hypothesen-Validierung mit Prototypen und Feedback-Sessions
- Scrum wie z. B. kurze iterative Sprints, erfolgreiche Projektdurchführung mit klaren Rollen und Kernelementen sowie strukturierte Umsetzung von Produkten und/oder Services
- Werkzeuge & Techniken wie z. B. Brainstorming-Methoden, analoges & digitales Prototyping, agile Projektmanagement-Techniken, Analyse-Tools sowie Räume & Materialien für agiles Arbeiten.
A wie Agilität
Agilität ist keine neue Funktionalität, auch wenn der Begriff erst in den letzten Jahren verstärkt aufgetreten ist. Der Ursprung kommt auch nicht aus der Softwareentwicklung, wie häufig angenommen wird. Der Begriff Agilität taucht bereits in der Systemtheorie von Organisationen auf, die in den 1950er-Jahren entwickelt wurde. Demnach beruht die Funktionsfähigkeit von Organisationen auf vier Bausteinen – dem so genannten AGIL-Schema:
- Adaption (Fähigkeit, auf sich verändernde äußere Bedingungen zu reagieren),
- Goal Attainment (Ziele definieren und verfolgen),
- Integration (Zusammenhalt (Kohäsion) und Inklusion (Einschluss) herstellen und absichern) sowie
- Latency (Beibehaltung grundlegender Ziele und Werte)
Agilität beschreibt somit die Fähigkeit einer Organisation, sowohl flexibel (im Sinne von reaktiv) als auch proaktiv zu handeln und hierbei von den sich immer schneller ändernden Rahmenbedingungen im unternehmerischen Umfeld zu antizipieren und initiativ zu werden, um notwendige Veränderungen einzuführen und sich wandelnden Märkten anzupassen. Agilität somit nur auf Flexibilität zu reduzieren, wie dies häufig vorgenommen wird, wäre zu kurz gedacht.
Seitdem wurde das Konzept der Agilität in drei Richtungen weiterentwickelt:
- Agiles Manufacturing, bei dem es um schnelle Produktentwicklung (Simultaneous Engineering), multifunktionale Teams und die kontinuierliche Verbesserung des Produktionsprozesses geht. Diesem Ansatz folgend basiert die Idee der Industrie 4.0: Prozesse werden unterbrochen und optimiert, Projekte wiederholt neu aufgesetzt, um neue Erkenntnisse mit einfließen zu lassen. Charakteristisch für agile Methoden ist ein iteratives Vorgehen.
- Agile Softwareentwicklung, bei der die Teams und Interaktionen den Prozessen und Tools übergeordnet sind. Eine funktionierende Software ist wichtiger als eine umfassende Dokumentation, die Zusammenarbeit mit dem Kunden wichtiger als vereinbarte Verträge, die flexible Reaktion auf Veränderung wichtiger als das Befolgen eines ursprünglichen Plans – ein Paradigmenwechsel für die meisten klassischen Industrieunternehmen. Die iterative Arbeitsweise ermöglicht Feedback und Korrektur. Eine der beliebtesten Methoden hierfür ist Scrum.
- Agile Organisationen sind die neueste Entwicklung. Sie beruhen auf Transparenz, Dialog, Vertrauen, Entscheidungsfreiheit und kurzen Wegen für Rückmeldungen. Wissen wird geteilt, Informationen werden offen weitergegeben, Fehler offen und konstruktiv angesprochen. Statussymbole und klassische Hierarchien entfallen. Mitarbeiter werden in die Personalplanung mit einbezogen und Mitarbeiterentwicklung erfolgt nicht nur auf Basis von Vorgaben, sondern auch durch „Peer Feedback“ aus den Teams. Die agile Organisation bezieht sich nicht nur auf Produktionsprozesse oder die Software-Entwicklung, sondern fokussiert die Transformation von Unternehmen.
Agilität unterscheidet vier zentrale Aspekte:
- Geschwindigkeit: Agile Organisationen müssen schnell und dynamisch reagieren.
- Anpassungsfähigkeit: Agile Organisationen müssen sich schnell an Veränderungen anpassen.
- Kundenzentriertheit: Agile Organisationen legen den Fokus auf die Bedürfnisse bzw. Bedarfe der Kundschaft. Kurze iterative Bearbeitungszyklen ermöglichen schnelles und punktuelles Reagieren auf Marktveränderungen und Kundenwünsche.
- Haltung: Agile Organisationen haben keine „Mitarbeitenden“, sondern ganzheitlich in Lösungen denkende Teammitglieder, die über ein agiles Mindset verfügen.
Um Agilität zu entwickeln und auszubauen, müssen die Rahmenbedingungen für agile Vorgehensweisen geschaffen werden, Ergebnisse müssen in den Mittelpunkt gestellt werden und nicht Prozesse, Strukturen und Hierarchien, die Unternehmenskultur muss Fehler erlauben, die Stärken der Teammitglieder müssen gefördert werden und ganz wichtig ist, Vertrauen unter den Menschen aufzubauen und ihnen Verantwortung und Freiräume zu geben.
A wie AIaaS (Artificial Intelligence-as-a-Service)
Artificial Intelligence as a Service (AIaaS) beschreibt ein Angebot, →künstliche Intelligenz an einen externen Dienstleister auszulagern. Kleinen und mittleren Unternehmen fehlen in der Regel die finanziellen und fachlichen Ressourcen, um eigene KI-Anwendungen zu entwickeln und zu implementieren. Daher greifen immer mehr Unternehmen auf Cloud-KI-Anbieter wie z. B. Microsoft Cognitive Services, Amazon Machine Learning, IBM oder Google Cloud Machine Learning zurück, die neben der Hardware auch entsprechende Entwicklungswerkzeuge für Artificial Intelligence (AI) auf →SaaS-Basis anbieten. Mit ihnen können schlüsselfertige KI-Applikationen entwickelt werden. Somit können sich Unternehmen die kostspielige Investition der erforderlichen Hard- und Software sowie Personal- und Wartungskosten für den Start der On-Premise-Cloud-KI sparen. Die oben genannten Cloud-KI-Anbieter legen ihren Schwerpunkt auf →Machine-Learning-as-a-Service. Ursächlich hierfür ist, dass maschinelles Lernen methodisch und technisch das am weitesten entwickelte Gebiet der Künstlichen Intelligenz ist. Mit dem „Deep Learning“ steht eine Implementierung eines künstlichen neuronalen Netzes zur Verfügung, mit dem Daten in Wissen verwandelt und Vorhersagemodelle etwa für →Predictive Analytics, Ausfallrisiken oder Kundenverhalten entwickelt werden können.
A wie AIDA
AIDA ist ein Akronym und steht für die Begriffe Attention (Aufmerksamkeit), Interest (Interesse), Desire (Verlangen) und Action (Handlung). Das AIDA-Modell (auch als AIDA-Formel oder AIDA-Prinzip bezeichnet) ist ein Stufenmodell zur Beschreibung der Werbewirkung im Marketing (Werbepsychologie). In dem von Elmo Lewis bereits im Jahr 1898 entwickelten Modell durchlaufen Konsumenten vier aufeinanderfolgende Phasen, bevor sie schlussendlich den Kauf eines Produktes oder einer Dienstleistung vollziehen.
In der ersten Phase der Marketingkommunikation geht es um die Gewinnung von Aufmerksamkeit bei der gewünschten Zielgruppe, was angesichts zunehmender Reizüberflutung und aktiver Ablehnung von Werbung immer schwieriger wird. Was früher durch auffällige Farben, freche Werbesprüche oder ungewöhnliche Bildmotive gelang, reicht heute immer weniger, um Aufmerksamkeit bei der Zielgruppe zu erzielen. Gelingt dies, geht es in der nächste Phase darum, die gewonnene Aufmerksamkeit zu nutzen, um tiefer gehendes Interesse an der Werbebotschaft zu wecken. In dieser Phase geht es um die Auseinandersetzung der potentiellen Kundschaft mit der jeweiligen Werbebotschaft, um die Marke, das Produkt oder die Dienstleistung nachhaltig im Gedächtnis des Konsumenten zu verankern. Entsteht daraus ein Verlangen des Kunden ist die dritte Stufe des Werbewirkungsmodells erreicht. Aus dem geweckten Interesse des Kunden entsteht das Verlangen, das umworbene Angebot zu besitzen, also konkret zu erwerben. Hierfür wird ein gezieltes Werbeversprechen adressiert, das auf der emotionalen und/oder kognitiven Ebene stattfindet. In der letzten Phase des AIDA-Modells steht die Handlungsaufforderung zum Erwerb des Produkts oder der Dienstleistung, auf neudeutsch auch als „Call-to-Action“ bezeichnet. Erst mit Abschluss des Kaufs ist das Stufenmodell abgeschlossen.
Im Laufe der Jahre entstanden zahlreiche Modifikationen des Werbewirkungsmodells, zum Teil aus Widersprüchen und zum anderen aufgrund der Weiterentwicklung der Märkte und der hinzugekommenen Absatzkanäle. Kritiker sehen das Interesse nicht als Folge, sondern eher als Voraussetzung von Aufmerksamkeit (IADA). Erweiterungen finden in erster Linie durch das Hinzufügen von Wirkungsstufen z. B. „gain confidence“ (AIDCA), „satisfaction“ (AIDAS), „recommendation“ (AIDAR) oder „conviction“ (AIDCAS) statt. Die Abkürzung I-AIDA bekommt im Online-Marketing zunehmend Bedeutung, da die Intention z. B. durch Eingabe des Begriffs in einer Suchmaschine dem typischen AIDA-Modell vorausgeht. Alle Werbewirkungsmodelle haben gemeinsam, dass der umworbene potenzielle Käufer vom ersten Stimulus bis zum Kaufabschluss zwischen mindestens 4 und bis maximal 10 Phasen durchläuft. Diese Wirkungsstufen bilden eine Hierarchie der Effekte von Ursache und Wirkung. Vom vierstufigen AIDA-Modell weicht das CAB-Modell ab. CAB steht für Cognition (Wahrnehmung), Affect (Emotion/Effekt) und Behaviour (Verhalten). Hinter diesen drei Buchstaben steckt ein komprimiertes Werbewirkungsmodell, das von AIDA beeinflusst ist, den Prozess bis zum Abschluss aber anders beschreibt. Die DAGMAR-Formel ist ein der AIDA-Formel ähnliches Modell, das aber den Fokus stärker auf Wirkung und Erfolg der Werbung lenkt. DAGMAR steht für Defining Advertising Goals for Measured Advertising Results und beschreibt zum einen das Ziel der Werbung, aber stellt zugleich ihre Bedeutung als Kommunikationsmedium heraus. Infolgedessen steht DAGMAR nicht allein für den Verkaufsprozess, sondern auch für die gesamte Marketingkommunikation, so dass dieses Modell zu einer festen Größe im Marketing geworden ist.
Die Einfachheit des AIDA-Modells stößt in Zeiten volatiler Märkte und crossmedialer Kommunikations- und Distributionskanäle zunehmend auf Kritik. Die lineare und starr wirkende Abfolge der einzelnen Phasen vernachlässigt die zunehmend dynamischen und variierenden Zusammenhänge von Marketingbotschaften und -absichten im digitalen Zeitalter. Es geht davon aus, dass mit jedem gezielten Reiz eine konkrete Reaktion zustande kommt, was bekanntlich heute nicht mehr der Fall sein muss. Eine weitere Kritik besteht darin, dass im Mittelpunkt des Modells der prozessuale Weg zum Abschluss ist. Der Kunde kommt nur als handelndes Ziel der Begierde vor. In Zeiten von Customer Centricity und Customer Experience bleiben Dialog, Interaktion und Erlebnis auf der Strecke und werden im Rahmen moderner Verkaufspsychologie vernachlässigt.
A wie Akkumulationsstrategie
→Sprinkler-Strategie
A wie Algorithmisierung
Die →Digitalisierung als wohl größter →Megatrend verändert alle Bereiche der Gesellschaft und führt zur Neustrukturierung der gesellschaftlichen, technologischen und sozialen Strukturen. Durch Digitalisierung und Automatisierung bekommen Daten einen bislang nicht gekannten Wert. Algorithmen prägen bereits heute in großem Maß alle gesellschaftlichen Bereiche. Der Trend der Algorithmisierung ist einer der Megatrends und wohl eine der bedeutendsten Entwicklungen in der Data Ära. Durch intelligente Datenformeln lernt die Umgebung auf alle erdenklichen Situationen zu reagieren und Entscheidungen zu fällen. Ob dies rückblickend Fluch oder Segen gewesen sein wird, bleibt wie bei allen Innovationen abzuwarten und ist eine Ermessens- und Abwägungssache. Smarte Formeln leben davon, dass sie mit Daten versorgt werden – und Mensch und Maschine liefert diese bewusst und unbewusst permanent, während sie sich durch die digitale (und zum Teil auch analoge) Welt bewegen. Je mehr Algorithmen über Abläufe, Entscheidungen und Prozesse sowie deren Auswirkungen wissen, desto stärker können sie auf ihr Umfeld reagieren und dieses beeinflussen, manipulieren, optimieren, entlasten und gestalten. Durch die zunehmende Vernetzung der durchstrukturierten Algorithmen im Zusammenspiel mit →künstlicher Intelligenz ergeben sich ungeahnte Möglichkeiten in einer digitalisierten Welt von morgen. Algorithmen nehmen dem Menschen bereits heute unzählige Entscheidungen ab. Der Fokus der Algorithmisierung liegt allerdings nicht mehr darauf, Entscheidungen zu treffen, wenn sie anstehen, sondern smarte Datenformeln innovativ zu nutzen, um zukünftige Entscheidungen zu ermöglichen. Durch den Einsatz von Sensorik werden Computer zunehmend „feinfühliger“ und durch Machine Learning schneller und zunehmend intelligenter. Längst macht der sich selbst optimierende Algorithmus die Runde und wird über die Frage entscheiden, wie viel Annehmlichkeiten auf der einen Seite wie viel Freiheit und Unabhängigkeit auf der anderen Seite noch zulassen wird. Der Umgang mit den →Big Five zeigt, dass der Mensch in jeder Sekunde seines Handelns Daten hinterlässt und somit transparent wird – sei es durch Bewegungsprofile, Bezahldaten, Such-, Informations-, Nutzungs- und Kommunikationsverhalten. Gleichzeitig helfen Algorithmen in einer Welt der Daten- und Informationsüberflutung nicht unterzugehen und den Menschen zu entlasten und seinen Alltag zu optimieren. Der Umgang mit diesen Möglichkeiten wird letztendlich darüber entscheiden, ob die Algorithmisierung Fluch oder Segen sein wird.
A wie Arbeitsplatz der Zukunft
Begriffe wie Arbeitsplatz der Zukunft, Digital Workplace, New Work oder Mobile Office usw. werden häufig synonym verwendet. Zum Teil berechtigt, da die Grenzen fließend und die dahinterliegenden Beschreibungen nahezu identisch sind, zum Teil völlig unberechtigt, da mit jedem einzelnen Begriff andere Trends und Entwicklungen gemeint sind. In einem Punkt sind sich allerdings alle Zukunftsforscher einig: Daten werden die Arbeitsplätze von morgen bestimmen. In Zeiten von Big Data müssen Daten schneller und effizienter analysiert und verarbeitet werden. Neben Digitalisierung wird auch Automatisierung eine immer größere Rolle spielen. Am digitalen Arbeitsplatz führt kein Weg mehr vorbei. Coronabedingt haben Unternehmen erkannt, dass digitale Arbeitsplätze und damit verbunden agile Arbeitsmethoden mehr Mobilität und Flexibilität gebracht haben und Prozesse schneller und schlanker geworden sind.
Der „Arbeitsplatz der Zukunft“ ist allerdings kein Produkt, das ein Unternehmen in kurzer Zeit einführen kann, sondern eine tiefgreifende Veränderung der Unternehmenskultur mit Auswirkungen auf Arbeitsmethoden und -modelle, kollaborative Zusammenarbeit nach innen und außen, technologische Infrastruktur sowie Unternehmensstrukturen und Geschäftsprozesse. Je nach Perspektive des Einzelnen: Während Arbeitgeber mit der Digitalisierung des Arbeitsplatzes in erster Linie Mobilität, Technologie und höhere Effizienz assoziieren, verbinden Arbeitnehmer dagegen hauptsächlich einen Wandel der Arbeitszeitmodelle (z. B. Homeoffice, remote work, Co-working) sowie flexiblere Arbeitsmethoden und mehr Gestaltungsspielraum. Unternehmen sind gefordert, Arbeitsplatz- und Mobilitätskonzepte für die gesamte Organisation zu entwickeln und hierbei zu berücksichtigen, dass auch der Arbeitsplatz ihrer Kunden zunehmend digital wird.
Deshalb sind feste Büroarbeitsplätze ein Auslaufmodell, auch dann, wenn in der Post-Corona-Zeit Kontaktbeschränkungen wieder komplett aufgehoben sind. Home- und Mobileoffice sowie virtuelle Meetings bestimmen den Arbeitsplatz der Zukunft. Angesichts der Angebote an Desk Sharing oder Co-Working Spaces kann jeder Mitarbeiter jederzeit und an jedem Ort arbeiten. Ein Digital Workplace verändert grundlegend die Arbeitsweise für Unternehmen und ihrer Organisationen. Neben der Eigenorganisation des Mitarbeiters müssen Unternehmen die Sicherheit dezentraler Archivierung, des Informations- und Datenaustausches sowie den standort- und geräteunabhängigen Zugriff sicherstellen.
Je nach Branche und Tätigkeit werden digitale Prozesse wie Automation oder auch künstliche oder kontextualisierte Intelligenz Tätigkeiten übernehmen, so dass Veränderungen auch Wegfall bestehender und die Schaffung neuer Arbeitsplätze bedeutet. Letzteres wird schon synonym als ‚War for Talents‘ bezeichnet, bei dem es nicht nur um die junge Generation geht, sondern um qualifizierte Fach- und Führungskräfte aller Altersgruppen. Einer der Treiber ist der Megatrend Individualisierung. Zukünftig geht es nicht mehr um ein Vertragsverhältnis, bei dem eine Seite ihre Leistung zur Verfügung stellt und der andere das dafür vereinbarte Gehalt zahlt. In Zukunft muss der Job vereinbar sein mit der Sehnsucht nach Selbstbestimmung, maximaler Freiheit, Kreativität und ausreichender Freizeit – und weniger mit den Wünschen und Zielen des Arbeitgebers.
Neben Digitalisierung und Individualisierung müssen Innovationen als nächster Treiber für den Arbeitsplatz der Zukunft genannt werden. Die bisherige Arbeitsumgebung in den meisten Unternehmen war monoton, sachlich sowie funktional und somit demotivierend und völlig ungeeignet, um Teamwork, Kreativität und innovative Ideen zu fördern. Innovative Raumkonzepte reagieren auf Verhaltensmuster von Menschen und unterstützen kreative Potenziale. Daher geht es um mehr als nur um kreative und/oder digitale Gestaltungs- oder Einrichtungskonzepte. Ganzheitliche Raumkonzepte sind der visualisierte und gelebte Ausdruck einer innovationsfreundlichen Unternehmenskultur, um andere Sichtweisen zu entwickeln und kreative sowie innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Hierzu werden innovative Raumkonzepte je nach Funktionalität, Interaktion und Dynamik differenziert. Und egal, ob die flexiblen, innovativen und multisensorischen Räume als Ideenmanufaktur, Kreativwerkstatt, Innovationsschmiede, Innovation Lab oder Creative Space bezeichnet werden – im Endeffekt geht es darum, Kreativität, innovative Ideen, Veränderungsprozesse, Kommunikation und agile Kollaboration zu fördern.
A wie Archetypen
Archetypen sind ein Konzept aus der Psychologie und lassen sich als Urbilder beschreiben. Der Schweizer Psychoanalytiker Carl Gustav Jung identifizierte bereits in seiner Dissertation im Jahre 1902 zwölf vorprogrammierte Verhaltensmuster, die man bei jedem Menschen finden kann, unabhängig von Nationalität, Religion, Alter oder Geschlecht. Er konstruierte daraus 12 sich differenzierende Persönlichkeiten und nannte diese 1934 erstmals „Archetypen“. In den 1960-er Jahren beschrieb der Tiefenpsychologe Fritz Riemann diese in seinem Buch „Grundformen der Angst“ als treibende Kräfte der Persönlichkeitsentwicklung. Auch Abraham Maslow erkannte die archetypischen Verhaltensmuster als hintergründige Kräfte für grundlegende Motivationen und Bedürfnisse von Menschen und verwendete diese in seiner berühmtem Pyramide („Maslowsche Bedürfnishierarchie“). Die amerikanische Marketing-Professorin Jennifer Aaker von der Stanford Universität griff 1997 das Modell auf und ermittelte 15 verschiedene Facetten von Markenpersönlichkeiten. Spätestens das Werk der Markenexperten Margaret Marks und Carol S. Pearson „The Hero and the Outlaw: Building Extraordinary Brands Through the Power of Archetypes“ etablierte 2001 endgültig das Modell der Archetypen international zu einer anerkannten Methode für die strategische Markenpositionierung und -führung, die längst auch für andere Bereiche übernommen wurde.
Archetypen eignen sich hervorragend als Identifikationsfigur, sind universell einsetzbar und haben eine globale Symbolkraft. Sie werden seit Generationen mit ähnlichen Emotionen und Assoziationen in Verbindung gebracht, lassen sich authentisch umsetzen und anschaulich inszenieren. Zudem sind sie zeitlos und liefern bei aller Subjektivität eine objektive Bezugsgröße. Archetypen haben eine hohe Wiedererkennung, geben Orientierung und wirken somit stabilisierend. In der Markenpositionierung und -führung haben sie vor allem eine Aufgabe: sie geben der Markenpersönlichkeit ein spezifisches Profil, eine konkrete Identität. Auch wenn der Archetyp nicht nach außen kommuniziert wird, verursacht er bei dem Empfänger eine unbewusste Markensympathie und intuitives Markenvertrauen.
Um die archetypischen Verhaltensmuster nutzen zu können, übertrug Pearson die vier psychologischen Verhaltensweisen
- Ordnung/Sicherheit/Stabilität/Kontrolle
- Dominanz/Macht/Wandel/Meisterschaft
- Verbindung/Glück/Solidarität/Zugehörigkeit
- Unabhängigkeit/Individualität/Freiheit/Selbstverwirklichung.
von Menschen in ein Koordinatensystem und entwickelte daraus ein archetypisches Positionierungsmodell. Anschließend wurden die archetypischen Verhaltensmuster den Quadranten zugewiesen und ergaben somit die 12 Archetypen. Diese werden als
- der Unschuldige bzw. der Ehrliche
- der Weise
- der Entdecker
- der Rebell
- der Zauberer bzw. der Magier
- der Held
- der Liebende bzw. der Genießer
- der Narr bzw. der Spaßvogel
- der Durchschnittstyp bzw. der Jedermann
- der Betreuer bzw. der Beschützer
- der Herrscher
- der Schöpfer
bezeichnet. Je stärker die Archetypen den psychologischen Verhaltensmustern von Menschen entsprechen, desto weiter außen sind sie zu finden.
Der Unschuldige oder Ehrliche ist neugierig, spontan und optimistisch mit einem gewissen Maß an Naivität sowie moralisch und liebevoll. Seine wichtigsten Werte sind Glück und Vertrauen. Sein höchstes Ziel besteht darin, andere glücklich zu sehen. Ihm ist es wichtig, dazu zu gehören und Teil von etwas zu sein. Er hält sich an Regeln, ist ehrlich und glaubt an das Gute. Der Unschuldige wird als glaubwürdig und verlässlich angesehen. Marken dieses Archetypus liefern eine relativ simple Antwort auf ein Problem und haben eine klare Moralvorstellung. Bekannte Marken dieses Archetyps sind Disney, McDonalds, Tempo, Evian, Hipp und Frosch. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken umweltbewusst und fürsorglich, zeigen lachende Kinder und glückliche Familien.
Dem Weisen geht es vor allem um Wahrheit, Gerechtigkeit und Aufklärung. Mit seiner Intelligenz, seinem Verstand und der Besonnenheit, wahrheitsliebenden Art und analytischen Fähigkeiten möchte er die Welt erkennen und erklären. Sein Ziel ist das Bewahren der Menschheit vor Irrtümern. Er hasst Ignoranz. Daher eignet sich dieser Archetyp vor allem für Forschungseinrichtungen oder Unternehmen, die ihre Kunden zum (Nach)Denken inspirieren. Bekannte Marken sind die Fraunhofer-Gesellschaft, die Stanford und Harvard University sowie Beratungsunternehmen wie McKinsey oder Boston Consulting. Auch Marken wie Stiftung Warentest, TED oder IBM zählen zu diesem Archetyp.
Der Entdecker muss Abenteuer erleben und will die Welt erforschen. Er ist ehrgeizig, unbeirrbar, mutig, probiert Neues aus und legt großen Wert auf Freiheit und Unabhängigkeit. Er meidet Konformität und will nicht eingeengt werden. Sein Ziel ist die Auseinandersetzung mit allem Neuem und ein erfülltes Leben. Der Entdecker ist immer auf der Suche und seine Neugierde kennt keine Grenzen. Bekannte Beispiele sind die Brauerei Becks, Ikea, Jeep und Jack Wolfskin.
Der Rebell bricht Regeln aus tiefster Überzeugung. Seine Philosophie besteht in Disruption, Revolution oder Schock. Der Rebell bricht aus dem Mainstream aus. Er will stören, manchmal auch zerstören. Sein Auftreten ist oft kämpferisch oder verschmitzt. Vor allem, wenn eine junge Zielgruppe erreicht werden soll, ist dieser Archetyp ein wirksames Instrument. Bekannte Beispiele sind Red Bull, Virgin, Tesla, Dell, Harley Davidson oder Saturn. Früher war Apple der Inbegriff des Rebellen.
Der Zauberer oder Magier wird als wissensdurstig, kreativ, visionär und zukunftsweisend wahrgenommen. Er sucht nach Möglichkeiten und findet Lösungen, die die Welt bewegen. Neben Technologieunternehmen werden oft Startups mit dem Zauberer assoziiert. Bekannte Beispiele sind Apple, Google und Tesla, aber auch Dyson und die Walt Disney Company.
Der Held kommt in unterschiedlichen Formen vor. Als Wettkämpfer oder Retter ist er willens- und wissensstark, stolz, selbstbewusst und hilfsbereit. Seine Ziele verfolgt er mit hohem Selbstvertrauen und dem Glauben, das Schlechte zu bekämpfen und das Gute zu schützen. Er kennt seine eigene Stärke, ist kompetent, mutig, umsetzungsstark und verfügt über überdurchschnittliche Fähigkeiten. Dem Held ist auch immer eine Geschichte zugeschrieben, denn ein Held ist nur ein Held, wenn er auf Reise geht und eine Herausforderung annimmt. Bekannte Beispiele sind Porsche, Apple, Nike und Krombacher.
Der Liebende oder Genießer ist leidenschaftlich, verführerisch und steht für Nähe und Geborgenheit. Er gibt anderen das Gefühl, einzigartig zu sein und vermittelt Verständnis sowie Dankbarkeit. Außerdem zeichnet den Archetyp aus, dass er seine Attraktivität steigern möchte, lieben will und geliebt werden möchte. Außerdem steht dieser Archetyp für Genuss. Bekannte Beispiele sind Kaffee- und Schokoladensorten im Premiumsegment sowie die Marke Lenor, Montblanc und Chanel. Eine Untervariante dieses Archetypus ist die Sirene, die Verführerin des Odysseus. Ihr Wesen ist zweischneidig, da ihrer Attraktivität etwas Zerstörerisches anhaftet. Sie ist der Urarchetyp des „Sex Sells“ für alle Männerprodukte vom Auto bis zur Zeitschrift.
Der Narr oder Spaßvogel oder auch Charmeur sucht das Vergnügen und die Freude in allem, was er macht. Ihm ist die Sympathie anderer wichtig, deshalb unterhält er sie. Zudem ist es sein Ziel, andere zu bespaßen. Er lebt im Hier und Jetzt und genießt den Augenblick. Er ist das Gegenteil von Langeweile. Bekannte Beispiele sind BVG, Edeka, AIDA, Media-Markt oder Axe.
Der Jedermann ist das genaue Gegenteil des Helden – der Anti-Held. Er ist unauffällig, bodenständig, angepasst, „08/15“ und angenehm. Seine Empathie, Gradlinigkeit, Zuverlässigkeit und Bodenständigkeit sowie Loyalität zeichnen ihn aus. Er möchte auf keinen Fall auffallen und schon gar nicht anecken oder ausgegrenzt werden. Damit ist dieser Archetyp eine der schwierigsten Herausforderungen in der Markenpositionierung, da diese Marken ohne Ecken und Kanten auskommen müssen und dennoch ein Markenprofil entwickeln müssen. Bekannte Beispiele sind Ikea, Aldi, Coca-Cola, Coop, Rewe und VW.
Der Betreuer bzw. Beschützer wird als selbstlos, einfühlsam und fürsorglich wahrgenommen. Er vermeidet Egoismus, will andere helfen, unterstützen und Schutz bieten und ist verantwortungsbewusst. Ihn treibt die Überzeugung an, dass nur Nächstenliebe das Leben erfüllt. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken bewusst fürsorglich, zeigen lachende Kinder und glückliche Familien. Bekannte Beispiele sind Nivea, Volvo, Tempo, Hipp und die Drogeriemarktkette DM.
Der Herrscher steht für Macht, Autorität und Kontrolle sowie den Erhalt von Sicherheit und Ordnung. Mit großem Verantwortungsbewusstsein strebt er das Ziel einer harmonischen Gesellschaft an. Er versucht, seine Macht für Gutes zu nutzen. Er zeigt seinen Führungsanspruch deutlich und will diesen ausbauen. In übertriebener Form neigt er zu Rechthaberei und hat Angst vor Kontrollverlust. Dieser Archetyp passt zu Markt- und Innovationsführern sowie Premiummarken. Bekannte Beispiele sind Mercedes-Benz, BILD, Microsoft, Rolex und auch Amazon.
Der Schöpfer ist experimentierfreudig und kreativ. Er will seine Visionen in die Tat umsetzen und für die Welt erlebbar machen. Er will eine neue Realität schaffen. Seine Werte sind selbstverwirklichend, innovativ und kreativ. Mittelmäßigkeit vermeidet er, vor Fantasielosigkeit hat er Angst. Bekannte Beispiele sind Hornbach, Adobe, Lego und Apple.
Erfolgreiche Marken mit einem eindeutigen Markenkern sind in der Regel einem Archetypen und nur in Ausnahmen zwei benachbarten Archetypen zuzuordnen und lösen ein spezifisches Markenbild aus.
A wie ARPANET
ARPANET ist ein Akronym und steht für Advanced Research Projects Agency Network. Dieses dezentrale Computer-Netzwerk wurde im Auftrag der US Air Force Ende der 1960-er Jahre unter der Leitung des Massachusetts Institute of Technology und des US-Verteidigungsministeriums entwickelt und sollte verschiedene US-amerikanische Universitäten, die für das Verteidigungsministerium forschten, miteinander verbinden. Technologisch baute es auf ein Konzept von Licklider aus dem Jahr 1962 auf, das unter dem Namen „Intergalactic Computer Network“ bereits viele Ideen enthielt, die das heutige Internet auszeichnet. Die erste Datenübertragung erfolgte am 29. Oktober 1969 zwischen Computern an der University of California (Los Angeles) und dem Stanford Research Institute (San Francisco). Im Jahr 1983 wurden TCP/IP-Protokolle im ARPANET eingesetzt, wodurch das ARPANET ein Subnetz des frühen Internets wurde. Es gilt als der Vorläufer des heutigen Internets.
A wie Artificial Intelligence (AI)
Artificial Intelligence ist kein neuer Begriff, auch wenn dieser erst in den letzten Jahren vermehrt verwendet wird. Der Begriff tauchte bereits 1955 auf, als der US-amerikanische Informatiker John McCarthy diesen im Rahmen eines Förderantrags für ein Forschungsprojekt beschrieb. Artificial Intelligence (AI) wird übersetzt mit künstlicher Intelligenz (KI) und beschreibt ein Teilgebiet der Informatik. Dieses beschäftigt sich damit, Aspekte menschlichen Denkens und Handelns mit und durch Maschinen und Computer nachzubilden. Die Automatisierung intelligenten Verhaltens und das Maschinenlernen sind dabei wichtige Bestandteile.
Der Begriff ist schwierig zu definieren, da es nicht einmal eine wissenschaftlich anerkannte Definition von allgemeiner „Intelligenz“ gibt. In der Verwendung des Begriffs künstliche Intelligenz wird in der Regel das Verständnis widergespiegelt, das eine Maschine und Computer das menschliche Denken und Handeln „ersetzen“ sollen. Hierbei unterscheidet die Wissenschaft zwischen einer schwachen KI, die menschliches Denken und Handeln automatisiert und eine starke KI, bei der menschliches Sehen, Hören, Analysieren, Entscheiden und Handeln durch eine Maschine und Computer nachempfunden wird und hierbei intelligent reagiert oder sich wie ein Mensch verhält. Die Vorstellungen einer starken KI in Form emotionaler Intelligenz oder der Fähigkeit, selbst kreativ zu werden, sind aber weiterhin visionär.
Umstritten ist der Versuch, einen Computer so zu programmieren, damit dieser menschliche Entscheidungsstrukturen nachbilden kann. Denn dieser Ansatz dient mehr der Automation im Sinne einer nachgeahmten Intelligenz als dem von autark denkenden und handelnden Maschinen. Hierfür sind Maschinen und Computer mit der Fähigkeit erforderlich, anhand von Daten und mithilfe selbstlernender Algorithmen bestimmte Muster und Gesetzmäßigkeiten zu erkennen und zu analysieren, um daraus Zusammenhänge wie Rückschlüsse und Vorhersagen treffen zu können. Die Schlüsseleigenschaften menschlichen Denkens wie Lernen, Logik und Selbstreflektion werden hierbei künstlich initialisiert und nachgebildet. Trotz einer simulierten Ähnlichkeit unterscheiden sich Kognition und Entwicklungsstadien deutlich vom menschlichen Denken und Handeln. Auch wenn eine Maschine und ein Computer menschliche Gefühle wie Liebe, Hass oder Angst simulieren und täuschend echt wiedergeben können, sind sie dennoch nicht in der Lage, dies zu empfinden.
Zu den bekanntesten Arten künstlicher Intelligenz gehören
- Logical AI, bei der die künstliche Intelligenz bestimmte Situationen aus Daten analysiert und daraus den nächsten „logischen“ Schritt ableitet und eine Entscheidung trifft, die einer definierten Zielerreichung dient
- Search, bei der die künstliche Intelligenz aus einer Vielzahl potenzieller Möglichkeiten den plausibelsten und/oder idealtypischen nächsten Schritt auswählt
- Pattern Recognition, bei der die künstliche Intelligenz verschiedene Muster erkennt und kombiniert und daraus ein ganzheitliches Bild erstellt
Die künstliche Intelligenz wird heute schon in vielen Bereichen eingesetzt wie z. B. in der Forensik, Produktion und Prozesssteuerung, virtuellen Assistenten und Chatbots oder auch digitalen Sprachassistenten.
A wie Augmented Reality (AR)
Der Begriff Augmented Reality („erweiterte Realität”) beschreibt die Wahrnehmung einer um virtuelle und interaktive Elemente erweiterten realen Welt. Dies bedeutet, dass Augmented Reality sowohl die reale als auch virtuelle Welt abwandelt. Im Gegensatz zu Virtual Reality wird bei Augmented Reality keine virtuelle Welt geschaffen, die den Nutzer vollständig umgibt, sondern die physische Welt durch computergenerierte Einzelelemente ergänzt oder erweitert bzw. überlagert. Augmented Reality setzt in erster Linie auf die Interaktion zwischen virtuellen Elementen in einer realen Umgebung, um somit eine Augmentierung hervorzurufen, wodurch der Nutzer eine erweiterte Realität wahrnimmt. Im Idealfall entsteht beim Nutzer der Eindruck, dass die (physisch) realen und die virtuellen Objekte in ein und demselben Raum koexistieren. Man spricht dann auch von der AR-Experience (Begeisterung). Dabei können visuelle, akustische, haptische, gustatorische oder olfaktorische Sinne angesprochen werden. Des Weiteren muss das AR-System interaktiv in Echtzeit funktionieren. Augmented Reality ist nicht nur eine Technologie, sondern sollte auch als Kommunikationsmedium nicht vernachlässigt werden. Im Gegensatz zu Virtual Reality bleibt jedoch der Aspekt der Immersion unberücksichtigt, da bei AR nicht das vollständige Eintauchen in eine virtuelle Welt, sondern das authentische Erweitern der realen Welt im Vordergrund steht.
Damit eine Augmented Reality Anwendung eine Verbindung zwischen realer und virtueller Welt herstellen kann, muss sie zunächst eine Lokalisierung durchführen. Dabei handelt es sich nicht zwingend um eine GPS-Lokalisierung, sondern kann auch mittels QR-Code ähnlichen Elementen (genannt Marker) erfolgen.
A wie Autonomes Fahren
Autonomes Fahren ist eines der großen →Megathemen der Automobilindustrie. Es beschreibt das vollständig automatisierte Fahren eines Fahrzeugs ohne aktiven Fahrer und darf nicht mit assistiertem, automatisiertem oder teilautonomen Fahren gleichgesetzt werden. Genau genommen definiert autonomes Fahren im engeren Sinne nur den höchsten Automatisierungsgrad nach Level 4 und 5. Der Weg dorthin wird als automatisiertes oder pilotiertes Fahren bezeichnet, bei dem verschiedene Assistenzfunktionen den Antrieb, die Lenkung und die Bremse steuern bzw. in diese Systeme situativ und in Echtzeit eingreifen. Autonomes Fahren setzt verschiedene Arten von Assistenzsystemen voraus, die miteinander kommunizieren und die Funktion und Sicherheit autark gewährleisten. Hierzu gehören u. a. Geschwindigkeits-, Brems-, Stau-, Spurhalte-, Abbiege- und Einparkassistenten. Hinzu kommen Kameras und Mikrofone sowie unterschiedliche Sensorsysteme (z. B. Laser-, Ultraschall-, Radar- und Lidarsensoren für die Abstandsmessung). Die Technologien für das autonome Fahren sind eng mit der Konnektivität verbunden.
Die SAE (Society of Automotive Engineers) hat fünf Level des automatisierten bzw. autonomen Fahrens definiert. Diese Einteilung hat sich weltweit in der Automobilindustrie etabliert. Beim Level Null lenkt, beschleunigt und bremst der Fahrer selbst („Driver only“). Der Level 1 definiert einen assistierten Modus. Das Fahrzeug verfügt über einzelne unterstützende Systeme wie z. B. das Antiblockiersystem (ABS), Elektronische Stabilitätsprogramm (EPS) oder der Abstandsregeltempomat (ACC), die situativ selbsttätig eingreifen. Beim Level 2 übernehmen Assistenten teilautomatisierte Aufgaben wie z. B. die adaptive Geschwindigkeitsregelung, den Spurwechsel-, Stau- oder Einparkassistent sowie die automatische Notbremsung. Der Fahrer behält aber die Hoheit über das Fahrzeug und die volle Verantwortung. Von Level 3 ist die Rede, wenn das Fahrzeug streckenweise selbsttätig beschleunigen, bremsen und lenken kann (bedingte Automation). Das Fahrzeug führt selbständig Funktionen aus wie z. B. das Auslösen des Blinkers, den Spurwechsel und das Spurhalten. Der Fahrer muss das System nicht dauernd überwachen. Bei Bedarf fordert das System den Fahrer innerhalb einer Vorwarnzeit auf, die Kontrolle wieder zu übernehmen. Im Level 4 wechselt das Fahrzeug von dem hoch automatisierten in den autonomen Betrieb. Der Fahrer hat allerdings die Möglichkeit, einzugreifen und das System zu „überstimmen“. Gleiches gilt, wenn das System die situativen Fahraufgaben nicht mehr bewältigen kann. Dann übernimmt der Fahrer wieder die Führung. Der Level 5 definiert den vollautomatisierten, autonomen Betrieb des Fahrzeugs ohne die Möglichkeit (und Notwendigkeit) des Eingreifens durch den Fahrer. Der Fahrer übernimmt lediglich die Festlegung des Ziels und das Starten des Systems. Das Fahrzeug kommt ohne Lenkrad und Pedale aus.
Experten sind sich aktuell noch uneinig, wann autonomes Fahren die technische Reife zu 100% erreicht haben wird. Während das Fraunhofer-Institut IAO diesen Zeitraum für 2025 angab, prognostizierte die Deutsche Akademie der Technikwissenschaften (acatech) diesen Zeitraum nicht vor 2030. Angaben der Automobilhersteller sind dies bzgl. widersprüchlich. Beim autonomen Fahren mischen nicht nur die klassischen Automobilhersteller und ihre Zulieferer mit. Start-ups, Tech-Unternehmen und Elektronik-Konzerne prägen den Entwicklungsstand maßgeblich mit und sind dabei, sich Marktanteile in diesem Zukunftssegment zu sichern. Neben den Schwergewichten Google, Apple und Amazon sind vor allem die Unternehmen Cruise, Waymo, Mobileye, Aurora und Baidu zu nennen, die bei der Entwicklung so genannter Robotaxis weltweit als führend gelten.
Neben den technischen Herausforderungen vor allem in stark befahrenen Ballungsgebieten und schlecht einsehbaren Verkehrssituationen sind vor allem noch rechtliche, versicherungstechnische und ethische Fragestellungen beim autonomen Fahren zu klären. Erste rechtliche Rahmenbedingungen zum automatisierten Fahren in Deutschland wurden bereits 2017 geschaffen. Hierbei ging es im Wesentlichen um veränderte Rechte und Pflichten des Fahrers während ein Fahrzeug automatisiert fährt. Im Juli 2021 wurde ein Gesetz verabschiedet, mit dem die Zulassung von autonomen Fahrzeugen (Stufe 4) in festgelegten Bereichen möglich ist und im Juli 2022 die entsprechende Verordnung, in der die Details geregelt sind. Bei allen offenen Fragestellungen und Herausforderungen für die Versicherungsbranche haben einige Versicherer (u. a. die Allianz) bereits signalisiert, entsprechende Lösungen anbieten zu können. Allerdings benötigen die Versicherer für die Schadensabwicklung den Zugriff auf die Daten von Sensoren, was lt. Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in Europa noch nicht geregelt ist. Autonomes Fahren stellt nur auf den ersten Blick für Versicherer ein erhöhtes Risiko dar. Mehrere Studien konnten belegen, dass das Fahren durch mehr Assistenzsysteme sicherer wird und somit zu weniger Fahrzeugschäden und einem Rückgang der Entschädigungsleistungen der Assekuranzen führen wird.
Deutlich komplexer sind ethische Fragen im Zusammenhang mit dem autonomen Fahren. Auch mit dem Einsatz hoch moderner Assistenzsysteme wird es Situationen geben, in denen Unfälle mit Personenschäden unvermeidbar sind. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn z. B. ein Kind auf die Straße läuft, instinktiv reagieren – eine Fähigkeit, die der →künstlichen Intelligenz auf Jahre noch abgesprochen werden kann. Davon abgesehen, muss in diesen Situationen blitzschnell reagiert werden – eine Fähigkeit, bei denen künstliche Intelligenz dem Menschen überlegen ist. Deshalb müssen im Vorfeld Regeln definiert werden, wie sich ein autonomes Fahrzeug in welcher Situation zu verhalten hat. Aus diesem Grund hat eine Ethikkommission der Bundesregierung im Jahr 2017 mit dem Namen „Automatisiertes und vernetztes Fahren“ bereits Leitlinien erarbeitet. Eine Kernaussage besagt, dass bei „unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen wie z. B. Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt ist“. Auch eine „Aufrechnung von Opfern“ ist nicht erlaubt. Mehrere Studien konnten belegen, dass die Fehlerhäufigkeit der künstlichen Intelligenz bei „moralischen Fragen“ besonders hoch ist.
Bei Prognosen über das autonome Fahren wird ein großer Fokus auf die technologischen Entwicklungen gelegt. Die Akzeptanz der Nutzer wird noch zu wenig hinterfragt. Eine Studie des Prognos-Forschungsinstituts belegt, dass sich autonomes Fahren nur sehr langsam durchsetzen wird. Das liegt zum einen darin, dass neue Fahrzeuge durchschnittlich 15 bis 20 Jahre im Einsatz sind und sich deshalb diese neue Technologie nur ganz allmählich im Markt durchsetzen wird. Die Studie geht davon aus, dass der Anteil autonom fahrender Autos im Jahr 2050 bei ca. 70 Prozent liegen wird. Zum anderen muss das Vertrauen in autonome Fahrzeuge erst wachsen.
AaaS (Analytics as a Service)
A wie AaaS (Analytics as a Service)
Der Begriff „Analytics as a Service“ (AaaS) beschreibt die Bereitstellung von Software zur Analyse von Geschäftsprozessen mithilfe von Web-Technologien. AaaS ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Analyseprozesse durchzuführen. Business Analytics als Serviceleistungen wird für Unternehmen immer interessanter, da der Aufbau und die Implementierung interner Analyseprozesse ein arbeits- und kostenintensiver Prozess werden kann. Je nach Umfang und Komplexität der durchzuführenden Analysen benötigen Unternehmen ggf. deutlich mehr Server und andere Arten von Hardware und zwangsläufig mehr Mitarbeiter im IT-Bereich und je Unternehmensstruktur im Controlling oder im Business Analytics. Dem gegenüber gewährt ein Anbieter von Analytics-as-a-Service gegen eine monatliche Gebühr Unternehmen den Zugriff auf eine Remote-Analyseplattform.
A/B-Testing
A wie A/B-Testing
Das A/B-Testing ist eine Methode, mit der zwei Varianten einer Sache miteinander verglichen werden um festzustellen, welche effizienter ist oder die bessere Performance erzielt. Die auch als Split-Testing bekannte Methode wird häufig im Zusammenhang mit dem Vergleich einer Website oder App genannt, allerdings besteht diese schon länger als das Internet. Der britische Biologe und Statistiker Ronald Fisher entwickelte diese Methode mithilfe der Mathematik in den 1920-er Jahre und legte den Grundstein, um mindestens zwei verschiedene Erfahrungen wissenschaftlich zu untersuchen. Fishers Methode wurde in vielen Branchen angewendet u. a. in der Auswertung von klinischen Studien. In den 1960-er Jahren wurde die Methode im Marketing aufgegriffen. Das A/B-Testing, wie es heute bekannt ist, existiert allerdings erst seit den 1990-er Jahren und war vor allem im Direktmarketing eine geschätzte Methode. Die beiden Varianten werden A und B genannt und den Nutzern nach dem Zufallsprinzip angezeigt. Ein Teil der Nutzer gelangt zur ersten Variante, ein anderer Teil zur zweiten. Mittels einer statistischen Analyse wird die Effizienz von Version A und Version B hinsichtlich verschiedener Indikatoren wie z. B. der Conversion Rate getestet. Somit kann schon in der Testphase ermittelt werden, welche Version z. B. zu den meisten Klicks, Registrierungen, Abonnements, Käufen und dgl. führt, um darauf eine gezielte Marketingstrategie zu entwickeln. Aufgrund der technologischen Entwicklung gibt es heute spezielle A/B-Testing-Tools für die Durchführung und Auswertung solcher Tests und Indikatoren.
Es gibt verschiedene Arten vom A/B-Testing. Beim klassischen A/B-Test werden den Nutzern zwei oder mehrere Varianten (Dummy) einer Seite gezeigt und wie oben erwähnt verglichen. Beim Split-Test oder Weiterleitungstest wird der Traffic an eine andere oder mehrere andere URLs weitergeleitet und beim →multivariaten Test (MVT) wird gemessen, wie sich mehrere veränderte Elemente auf ein und derselben Seite auswirken. Dies können grafische Elemente sein wie z. B. einzelne Bilder oder das gesamte Design, Schriftfarbe oder -größe, Fotos oder Banner und dgl., aber auch Inhalte. Mit diesem Test wird überprüft, welche Kombination die beste Leistung erzielt.
A/B/N-Testing
A wie A/B/N-Testing
A/B/N-Testing ist ein erweitertes →A/B-Testing. Während beim herkömmlichen A/B-Testing zwei Versionen einer Sache miteinander verglichen und getestet werden, bezieht sich die Variable N auf mehr als zwei Versionen, also von der zweiten Version bis zur „n-ten“ Version.
Accelerator
A wie Accelerator
Ein Accelerator ist ein systematisches Aufbauprogramm für →Startups und beinhaltet die professionelle Betreuung und Unterstützung von jungen Unternehmen. Neben der rein finanziellen Unterstützung enthalten Accelerator-Programme weitere Komponenten wie z. B. den Zugang zu Netzwerken, das Bereitstellen von Ressourcen, Infrastruktur und Kompetenzen. Hinzu kommt ein professionelles Mentoring-Programm und ein gezieltes Expertencoaching. Alle Maßnahmen konzentrieren sich auf die Skalierung, Optimierung und Beschleunigung des Geschäftsmodells und darauf, die Markteinführung eines →Minimum Viable Products (MVP) mit möglichst geringen Investitionen zu beschleunigen. Dies geschieht in der Regel in einem späteren Entwicklungsstadium, in dem ein Startup seinen bevorstehenden Markterfolg und ein Wachstumspotenzial über einen definierten Zeitraum nachweisen muss. Auch wenn Accelerator- und Inkubator-Programme einige Gemeinsamkeiten und Überschneidungen aufweisen und oft synonym genannt werden, gibt es feine Unterschiede. Diese liegen im Alter der Unternehmen und dem Entwicklungsstand der Geschäftsidee. Ein Accelerator verfolgt in der Regel das Ziel, das Wachstum eines bereits vorhandenen Geschäftsmodells zu beschleunigen. Bei einem →Inkubator dagegen steht vor allem die Entwicklung einer Geschäftsidee im Vordergrund, weshalb er oft als „Brutkasten“ bezeichnet wird. Der Accelerator dagegen ist als eine Art „Wachstumsbeschleuniger“ zu verstehen. Als Gegenleistung für die Unterstützung und Betreuung müssen Startups in der Regel Geschäftsanteile an ihrem Unternehmen abgeben. Die Dauer eines Accelerator-Programms ist in den meisten Fällen auf drei bis sechs Monate ausgelegt.
Additive Fertigung
A wie Additive Fertigung
→3D-Druck
Affective Computing
A wie Affective Computing
Affective Computing steht im Bereich der künstlichen Intelligenz für das Sammeln von Daten aus Mimik und Gestik, um menschliche Emotionen zu messen. Möglich wird das Sammeln der Emotionen, wie z. B. Muskelspannung und -entspannung, Körperhaltung, Herzfrequenz, Pupillenerweiterung oder Körpertemperatur, durch Sensoren, Kameras, Deep Learning und Big Data. Affective Computing, auch bekannt als Emotion Artificial Intelligence, soll dazu beitragen, die Interaktion mit Maschinen und künstlicher Intelligenz zu humanisieren. Die Potenziale sind vielfältig. In allen Bereichen des Lebens können sich „emotionale“ Maschinen optimal auf Menschen in einer individuellen Situation einstellen und die Interaktion mit diesen verbessern. Affective Computing wird somit die Lücke zwischen menschlicher Emotion und Maschine noch weiter schließen und so ermöglichen, dass Menschen zur Robotik und künstlicher Intelligenz mehr Vertrauen aufbauen werden.
Agentur für Sprunginnovation (SPRIND)
A wie Agentur für Sprunginnovation (SPRIND)
Die Agentur für Sprunginnovation (kurz SPRIND) wurde 2019 vom Bundesministerium für Bildung und Forschung (BMBF) und dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ins Leben gerufen. Ihre Aufgabe liegt in der finanziellen Förderung von →Sprunginnovationen und Ideen, die das Potenzial zur Sprunginnovation haben. Ziel ist es, hochinnovative Ideen zu identifizieren, zu unterstützen und zu beschleunigen und anschließend auf dem Markt zu etablieren. Hierzu wurde ein Netzwerk geschaffen, in dem Experten aus Wirtschaft und Wissenschaft zusammenarbeiten. Sie hat mit der US-amerikanischen →DARPA ein großes Vorbild und ein noch größeres Ziel: Deutschland wieder an die Weltspitze bahnbrechender Technologien und disruptiver Innovationen heranzuführen. Auch wenn SPRIND für Sprunginnovationen in Deutschland steht, ist es ein Anliegen der Agentur, die innovativsten Köpfe aus verschiedenen Ländern möglichst früh zusammenzubringen und international zu vernetzen. Einer der wichtigen Partner ist hierbei der →Europäische Innovationsrat (EIC), der Innovationen auf europäischer Ebene vorantreibt und somit die Wettbewerbsfähigkeit der Europäischen Union im globalen Wettbewerb um Schlüsseltechnologien unterstützt.
Agiles Manifest
A wie Agiles Manifest
Das agile Manifest (im Original „Manifesto for Agile Software Development”) wurde 2001 von einer Gruppe renommierter Softwareentwickler formuliert. Es bildet das Fundament im agilen Projektmanagement, da Entwicklungsprojekte von Software eine hohe Komplexität aufweisen und die technologische Entwicklung sehr dynamisch verläuft. Außerdem brauchen diese Projekte viele unterschiedliche Kompetenzen und eine flexible Umsetzung. Zwangsläufig mussten agile Prinzipien in einer Branche entwickelt werden, die schon vor über 20 Jahren an die Grenzen linearer Wasserfall-Modelle gestoßen ist.
Das agile Manifest wird durch vier Leitsätze gebildet und stellt diese zur Verdeutlichung seiner Kernaussagen den herkömmlichen bzw. traditionellen Vorgehensmodellen gegenüber. „Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen gelernt:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als eine umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlung.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.“
Dies bedeutet, dass der Mensch im Fokus steht und der direkte Austausch untereinander wichtiger ist als Formalismen. Anders ausgedrückt: auch der beste Prozess kann ein persönliches Gespräch nicht ersetzen. Nicht ohne Grund organisieren sich agile Teams in gemeinsamen Räumlichkeiten, um eine enge Zusammenarbeit und pragmatische Kommunikation sicher zu stellen. Der zweite Leitsatz bringt die hohe Fokussierung auf Werte, Lösungen und Ergebnisse zum Ausdruck. Agile Teams suchen konkrete Lösungen und streben Arbeitsergebnisse an, anstatt sich mit aufwändigen Dokumentationen oder der Gestaltung von Präsentationen aufzuhalten. In herkömmlichen Organisationen mit klassischer Projektkultur werden nicht selten mehr Ressourcen in die Erstellung von Powerpoints verwendet, um Lenkungsausschüsse oder Entscheidungsgremien zu überzeugen als in die Erledigung der eigentlichen Projektaufgabe. Der Kunde hat in der Projektarbeit agiler Teams die zentrale Bedeutung, ist Teil des Prozesses und mit seinen Bedarfen und Bedürfnissen, Problemen und Wünschen quasi immanenter Teil des Teams. Ausgeprägtes Zielgruppenverständnis und Kundenempathie sowie regelmäßiger Austausch sind wichtiger als Formalien wie z. B. Verträge. Dies bedingt schon allein der dritte Leitsatz, da agile Teams sehr flexibel, dynamisch, adaptiv und iterativ arbeiten. Das schnelle und angemessene Reagieren auf Veränderungen ist wichtiger als das sture Befolgen eines statischen Plans. Häufig wird diese Eigenschaft als planlos, chaotisch, willkürlich oder sprunghaft ausgelegt, ohne zu erkennen, dass agile Teams in erster Linie auf ein Ziel fokussiert sind und auf dem Weg dahin von ihrem ursprünglichen Plan abweichen, wenn es sinnvoll und zielführend erscheint. Diese vier Leitsätze sind das Grundgerüst, das durch zwölf Prinzipien weiter konkretisiert und operationalisiert wird. Sie bilden den Handlungsrahmen für agile Teams.
- “Our highest priority is to satisfy the customer through early and continuous delivery of valuable software” (Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche Auslieferung wertvoller Software zufrieden zu stellen). Kunden werden nicht nur als Auftraggeber gesehen, sondern als Teil der Entwicklung. Infolgedessen werden sie aktiv und frühzeitig mit einbezogen, in dem sie in die Meilensteine und Arbeitsergebnisse mit eingebunden werden. Somit können mögliche Fehlentwicklungen rechtzeitig erkannt und gegengesteuert werden.
- “Welcome changing requirements, even late in development. Agile processes harness change for the customer’s competitive advantage“ (Selbst späte Anforderungsänderungen in der Entwicklung sind willkommen. Agile Prozesse nutzen Veränderungen zum Wettbewerbsvorteil des Kunden). Dieses Prinzip darf nicht falsch verstanden werden. Es geht nicht darum, Projekte nicht von Anfang an bis zum Ende durchzuplanen und Anforderungen willkürlich zu ändern. Das agile Manifest möchte starre Strukturen aufbrechen und ein stures Festhalten an einem ursprünglich verabschiedeten Vorgehen vermeiden. Neue Anforderungen durch ein Feedback von Kunden oder Marktveränderungen müssen bis zum Schluss möglich sein und sollen den Erfolg eines Projektes sicherstellen. Für die Projektkultur ist wichtig zu differenzieren, ob Änderungen zu einem späten Zeitpunkt unvorhersehbar waren oder auf eine unzureichende Planung oder schlechte Kommunikation zurück zu führen sind.
- „Deliver working software frequently, from a couple of weeks to a couple of months, with a preference to the shorter timescale“ (Liefere funktionierende Software regelmäßig innerhalb weniger Wochen oder Monate und bevorzuge dabei die kürzere Zeitspanne). Die Arbeit in kurzen Zeitintervallen ist ein Grundprinzip im agilen Projektmanagement und basiert auf der Erkenntnis, dass zu lange Planungsphasen Unsicherheit und Risiko erhöhen. Man bezeichnet dieses Phänomen auch als “Cone of uncertainty”. Hierbei hat sich die Regel bewährt: je unbekannter oder riskanter ein Projektziel ist, umso kürzer sollten die Intervalle angesetzt werden. Der zweite Teil, ein konkretes und funktionierendes Arbeitsergebnis abzuliefern, sollte selbstverständlich sein.
- „Business people and developers must work together daily throughout the project“ (Fachexperten und Entwickler müssen während des gesamten Prozesses eng zusammenarbeiten). Dieses Prinzip ist eine Spiegelung der Realität in herkömmlichen Organisationen, die oft linear und hintereinander gekoppelt agieren. Anforderungen werden vom internen Auftraggeber formuliert und im Anschluss durch einen internen oder externen Auftragnehmer umgesetzt. Schließlich versteht der Auftraggeber etwas vom Business und der Auftragnehmer etwas von Software oder dgl. Jeder hat seine Kompetenzen und soll diese nach Zuständigkeiten einbringen. Agile Teams arbeiten so nicht. Für sie ist selbstverständlich, dass agile Teams interdisziplinär zusammen gesetzt sind und jeder Spezialist Teil des Projektteams sein muss, um gemeinsam ein lösungsorientiertes Ergebnis mit Mehrwert für den Kunden zu entwickeln.
- „Build projects around motivated individuals. Give them the environment and support they need, and trust them to get the job done” (Errichte Projekte rund um motivierte Menschen. Gib ihnen das Umfeld und die Unterstützung, die sie benötigen und vertraue darauf, dass sie die Aufgabe erledigen.“ Agile Teams sind überzeugt, dass Menschen autonom, kreativ und selbstorganisiert handeln. Deshalb setzen sich agile Teams auch nicht aus Menschen zusammen, die in ihren jeweiligen Fachabteilungen die höchste Kompetenz aufweisen, sondern hoch motiviert sind und ihren Handlungsspielraum kundenzentriert und im Sinne des Unternehmens ausüben. Dies funktioniert in erster Linie durch volles Vertrauen und Rückendeckung durch das Top-Management.
- „The most efficient and effective method of conveying information to and within a development team is face-to-face conversation“ (Die effizienteste und effektivste Methode, Informationen an und innerhalb eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu Angesicht). Offene, transparente und vor allem persönliche Kommunikation ist das wirkungsvollste Instrument. Nur so können sich agile Teams synchronisieren, nachhaltige Entscheidungen treffen und evtl. Spannungen klären bzw. Konflikte lösen.
- “Working software is the primary measure of progress“ (Funktionierende Software ist das wichtigste Fortschrittsmaß). Dies bedeutet, dass der Projektfortschritt auf Basis konkreter und vorzeigbarer Ergebnisse sowie durch Kundenfeedback zu bewerten ist. Theoretische Abhandlungen jeglicher Art gehören der Vergangenheit an. Jede Form von Ergebnissen, die eine Beurteilung des Projekterfolgs ermöglichen oder auch belegen, dass gewisse Annahmen ursprünglich nicht aufrechterhalten werden konnten oder Entscheidungen falsch waren, sind willkommen. Auch Learnings tragen dazu bei, zukünftig Ressourcen besser einzusetzen, Verschwendung zu vermeiden und Ergebnisse zu optimieren.
- „Agile processes promote sustainable development. The sponsors, developers, and users should be able to maintain a constant pace indefinitely” (Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber, Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte Zeit halten können). Kontinuität ist eine wichtige Voraussetzung, um agiles Arbeiten implementieren zu können. Agile Denk- und Arbeitsweise kann man nicht in einem mehrstündigen Workshop lernen. Man braucht ein aktives Projektcoaching, das regelmäßig stattfindet und situativ eingreift. Nur so können agile Werte entwickelt und agile Methoden implementiert werden. Dies geschieht durch kontinuierliches Ausprobieren und Anpassen, einen offenen Dialog und Selbstreflektion und vor allem die Bereitschaft, sich „konstruktiv zu reiben“ – immer im Sinne des Projekts und seiner Zielsetzung und -erreichung.
- „Continuous attention to technical excellence and good design enhances agility“ (Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert Agilität). Technische Exzellenz meint im übertragenen Sinne die „Liebe zum Detail”. Ein durchstrukturiertes Projekt mit einem hohen Detaillierungsgrad minimiert das Auftreten von zu erwartenden Problemen oder Fehlern, reduziert das Kostenrisiko und vermeidet unnötiges Nacharbeiten, wodurch Motivation des Teams und Zufriedenheit des Kunden steigt. Ein fehlender Qualitätsanspruch führt gerade bei technischen Systemen zu exponentiell wachsenden “costs of ownership” bis zu dem Punkt, dass ein System neu entwickelt werden muss. Design hat im Kontext von Agilität mehrere Bedeutungen. Gestaltung, Struktur, Prozesse, Services, Produkte sowie Geschäftsmodelle müssen einfach und idealerweise intuitiv sein. Dies vermeidet Komplexität und Abhängigkeit.
- “Simplicity – the art of maximizing the amount of work not done – is essential (Einfachheit – die Kunst, die Menge nicht getaner Arbeit zu maximieren – ist essenziell). Für agile Teams geht es in erster Linie darum, dass ihr Ergebnis einen wirklichen und messbaren Mehrwert aus Sicht des Kunden hat. Qualität statt Quantität, nicht anders sein, sondern besser sind die Maxime im agilen Projektmanagement.
- „The best architectures, requirements, and designs emerge from self-organizing teams“ (Die besten Architekturen, Anforderungen und Entwürfe entstehen durch selbstorganisierte Teams). Damit agile Teams erfolgreich sein können, brauchen sie ein hohes Maß an gegenseitigem Vertrauen, eine positive Fehlerkultur und Konfliktbereitschaft. Denn nur wenn unterschiedliche Perspektiven, Erfahrungen und Expertise in einem heterogen Team einfließen, entstehen innovative Ideen mit einem hohen Potenzial, erfolgreich umgesetzt zu werden. Dazu brauchen agile Teams keinen Supervisor, Mentor oder Manager.
- „At regular intervals, the team reflects on how to become more effective, then tunes and adjusts its behavior accordingly“ (In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden kann und passt sein Verhalten entsprechend an). Eine der Methodenkompetenzen von agilen Teams sind Retrospektiven. In fest definierten Abständen gibt es Manöverkritik, um die Zusammenarbeit kontinuierlich zu verbessern. Hierbei geht es selten um einzelne Mitglieder und immer um das Team. Diese Feedbacks sind Ausdruck über die Fehler- und Meeting-Kultur im Kleinen sowie Teams- und Unternehmenskultur im Großen.
Agile Tool Cards
A wie Agile Tool Cards
Agile Tool Cards sind ein von Brainbirds entwickeltes Karten-Set, das in der agilen Organisationsentwicklung eingesetzt werden kann. Auf 53 Karten werden praxisorientiert und sehr anschaulich die verschiedenen Themen aufbereitet, die für Transformation und Agilität entscheidend sind. Hierbei wird differenziert von der übergreifenden Ebene “Kultur & Mindset“ über agile „Methoden & Prozesse“ bis hin zu den „Werkzeugen & Techniken“, die ein schnelles und effizientes Arbeiten ermöglichen. Das Karten-Set unterstützt Fach- und Führungskräfte bei der Vermittlung und Anwendung dieser Themen – im Einzelcoaching, Teamtraining oder Anwendung in der gesamten Organisation. Jede Karte beinhaltet eine thematische Übersicht, eine genaue Beschreibung der Anwendung, Empfehlungen für Templates & Materialien sowie nützliche Tipps für die praktische Umsetzung der Konzepte. Zu den Themen gehören:
- Kultur & Mindset wie z. B. Entwicklung einer Unternehmenskultur, VUCA-Welt, Digitale Transformation, Agiles Mindset, Leadership & Management in der digitalen Arbeitswelt oder Customer Centricity
- Design Thinking wie z. B. Co-Creation, Prototyping und Testing, Personas oder Google Sprint
- Business Model Generation wie z. B. Entwicklung von neuen Geschäftsmodellen, Analyse und/oder Innovation bestehender Geschäftsmodelle, Business Model Canvas, Lean Canvas, Monetarisierung von Geschäftsmodellen oder Value Proposition
- Lean Startup wie z. B. Iterative Produktoptimierung, MVP (Minimum Viable Product), Produktentwicklung mit Hilfe der Build-Measure-Learn-Zyklen oder Hypothesen-Validierung mit Prototypen und Feedback-Sessions
- Scrum wie z. B. kurze iterative Sprints, erfolgreiche Projektdurchführung mit klaren Rollen und Kernelementen sowie strukturierte Umsetzung von Produkten und/oder Services
- Werkzeuge & Techniken wie z. B. Brainstorming-Methoden, analoges & digitales Prototyping, agile Projektmanagement-Techniken, Analyse-Tools sowie Räume & Materialien für agiles Arbeiten.
Agilität
A wie Agilität
Agilität ist keine neue Funktionalität, auch wenn der Begriff erst in den letzten Jahren verstärkt aufgetreten ist. Der Ursprung kommt auch nicht aus der Softwareentwicklung, wie häufig angenommen wird. Der Begriff Agilität taucht bereits in der Systemtheorie von Organisationen auf, die in den 1950er-Jahren entwickelt wurde. Demnach beruht die Funktionsfähigkeit von Organisationen auf vier Bausteinen – dem so genannten AGIL-Schema:
- Adaption (Fähigkeit, auf sich verändernde äußere Bedingungen zu reagieren),
- Goal Attainment (Ziele definieren und verfolgen),
- Integration (Zusammenhalt (Kohäsion) und Inklusion (Einschluss) herstellen und absichern) sowie
- Latency (Beibehaltung grundlegender Ziele und Werte)
Agilität beschreibt somit die Fähigkeit einer Organisation, sowohl flexibel (im Sinne von reaktiv) als auch proaktiv zu handeln und hierbei von den sich immer schneller ändernden Rahmenbedingungen im unternehmerischen Umfeld zu antizipieren und initiativ zu werden, um notwendige Veränderungen einzuführen und sich wandelnden Märkten anzupassen. Agilität somit nur auf Flexibilität zu reduzieren, wie dies häufig vorgenommen wird, wäre zu kurz gedacht.
Seitdem wurde das Konzept der Agilität in drei Richtungen weiterentwickelt:
- Agiles Manufacturing, bei dem es um schnelle Produktentwicklung (Simultaneous Engineering), multifunktionale Teams und die kontinuierliche Verbesserung des Produktionsprozesses geht. Diesem Ansatz folgend basiert die Idee der Industrie 4.0: Prozesse werden unterbrochen und optimiert, Projekte wiederholt neu aufgesetzt, um neue Erkenntnisse mit einfließen zu lassen. Charakteristisch für agile Methoden ist ein iteratives Vorgehen.
- Agile Softwareentwicklung, bei der die Teams und Interaktionen den Prozessen und Tools übergeordnet sind. Eine funktionierende Software ist wichtiger als eine umfassende Dokumentation, die Zusammenarbeit mit dem Kunden wichtiger als vereinbarte Verträge, die flexible Reaktion auf Veränderung wichtiger als das Befolgen eines ursprünglichen Plans – ein Paradigmenwechsel für die meisten klassischen Industrieunternehmen. Die iterative Arbeitsweise ermöglicht Feedback und Korrektur. Eine der beliebtesten Methoden hierfür ist Scrum.
- Agile Organisationen sind die neueste Entwicklung. Sie beruhen auf Transparenz, Dialog, Vertrauen, Entscheidungsfreiheit und kurzen Wegen für Rückmeldungen. Wissen wird geteilt, Informationen werden offen weitergegeben, Fehler offen und konstruktiv angesprochen. Statussymbole und klassische Hierarchien entfallen. Mitarbeiter werden in die Personalplanung mit einbezogen und Mitarbeiterentwicklung erfolgt nicht nur auf Basis von Vorgaben, sondern auch durch „Peer Feedback“ aus den Teams. Die agile Organisation bezieht sich nicht nur auf Produktionsprozesse oder die Software-Entwicklung, sondern fokussiert die Transformation von Unternehmen.
Agilität unterscheidet vier zentrale Aspekte:
- Geschwindigkeit: Agile Organisationen müssen schnell und dynamisch reagieren.
- Anpassungsfähigkeit: Agile Organisationen müssen sich schnell an Veränderungen anpassen.
- Kundenzentriertheit: Agile Organisationen legen den Fokus auf die Bedürfnisse bzw. Bedarfe der Kundschaft. Kurze iterative Bearbeitungszyklen ermöglichen schnelles und punktuelles Reagieren auf Marktveränderungen und Kundenwünsche.
- Haltung: Agile Organisationen haben keine „Mitarbeitenden“, sondern ganzheitlich in Lösungen denkende Teammitglieder, die über ein agiles Mindset verfügen.
Um Agilität zu entwickeln und auszubauen, müssen die Rahmenbedingungen für agile Vorgehensweisen geschaffen werden, Ergebnisse müssen in den Mittelpunkt gestellt werden und nicht Prozesse, Strukturen und Hierarchien, die Unternehmenskultur muss Fehler erlauben, die Stärken der Teammitglieder müssen gefördert werden und ganz wichtig ist, Vertrauen unter den Menschen aufzubauen und ihnen Verantwortung und Freiräume zu geben.
AIaaS (Artificial Intelligence-as-a-Service)
A wie AIaaS (Artificial Intelligence-as-a-Service)
Artificial Intelligence as a Service (AIaaS) beschreibt ein Angebot, →künstliche Intelligenz an einen externen Dienstleister auszulagern. Kleinen und mittleren Unternehmen fehlen in der Regel die finanziellen und fachlichen Ressourcen, um eigene KI-Anwendungen zu entwickeln und zu implementieren. Daher greifen immer mehr Unternehmen auf Cloud-KI-Anbieter wie z. B. Microsoft Cognitive Services, Amazon Machine Learning, IBM oder Google Cloud Machine Learning zurück, die neben der Hardware auch entsprechende Entwicklungswerkzeuge für Artificial Intelligence (AI) auf →SaaS-Basis anbieten. Mit ihnen können schlüsselfertige KI-Applikationen entwickelt werden. Somit können sich Unternehmen die kostspielige Investition der erforderlichen Hard- und Software sowie Personal- und Wartungskosten für den Start der On-Premise-Cloud-KI sparen. Die oben genannten Cloud-KI-Anbieter legen ihren Schwerpunkt auf →Machine-Learning-as-a-Service. Ursächlich hierfür ist, dass maschinelles Lernen methodisch und technisch das am weitesten entwickelte Gebiet der Künstlichen Intelligenz ist. Mit dem „Deep Learning“ steht eine Implementierung eines künstlichen neuronalen Netzes zur Verfügung, mit dem Daten in Wissen verwandelt und Vorhersagemodelle etwa für →Predictive Analytics, Ausfallrisiken oder Kundenverhalten entwickelt werden können.
AIDA
A wie AIDA
AIDA ist ein Akronym und steht für die Begriffe Attention (Aufmerksamkeit), Interest (Interesse), Desire (Verlangen) und Action (Handlung). Das AIDA-Modell (auch als AIDA-Formel oder AIDA-Prinzip bezeichnet) ist ein Stufenmodell zur Beschreibung der Werbewirkung im Marketing (Werbepsychologie). In dem von Elmo Lewis bereits im Jahr 1898 entwickelten Modell durchlaufen Konsumenten vier aufeinanderfolgende Phasen, bevor sie schlussendlich den Kauf eines Produktes oder einer Dienstleistung vollziehen.
In der ersten Phase der Marketingkommunikation geht es um die Gewinnung von Aufmerksamkeit bei der gewünschten Zielgruppe, was angesichts zunehmender Reizüberflutung und aktiver Ablehnung von Werbung immer schwieriger wird. Was früher durch auffällige Farben, freche Werbesprüche oder ungewöhnliche Bildmotive gelang, reicht heute immer weniger, um Aufmerksamkeit bei der Zielgruppe zu erzielen. Gelingt dies, geht es in der nächste Phase darum, die gewonnene Aufmerksamkeit zu nutzen, um tiefer gehendes Interesse an der Werbebotschaft zu wecken. In dieser Phase geht es um die Auseinandersetzung der potentiellen Kundschaft mit der jeweiligen Werbebotschaft, um die Marke, das Produkt oder die Dienstleistung nachhaltig im Gedächtnis des Konsumenten zu verankern. Entsteht daraus ein Verlangen des Kunden ist die dritte Stufe des Werbewirkungsmodells erreicht. Aus dem geweckten Interesse des Kunden entsteht das Verlangen, das umworbene Angebot zu besitzen, also konkret zu erwerben. Hierfür wird ein gezieltes Werbeversprechen adressiert, das auf der emotionalen und/oder kognitiven Ebene stattfindet. In der letzten Phase des AIDA-Modells steht die Handlungsaufforderung zum Erwerb des Produkts oder der Dienstleistung, auf neudeutsch auch als „Call-to-Action“ bezeichnet. Erst mit Abschluss des Kaufs ist das Stufenmodell abgeschlossen.
Im Laufe der Jahre entstanden zahlreiche Modifikationen des Werbewirkungsmodells, zum Teil aus Widersprüchen und zum anderen aufgrund der Weiterentwicklung der Märkte und der hinzugekommenen Absatzkanäle. Kritiker sehen das Interesse nicht als Folge, sondern eher als Voraussetzung von Aufmerksamkeit (IADA). Erweiterungen finden in erster Linie durch das Hinzufügen von Wirkungsstufen z. B. „gain confidence“ (AIDCA), „satisfaction“ (AIDAS), „recommendation“ (AIDAR) oder „conviction“ (AIDCAS) statt. Die Abkürzung I-AIDA bekommt im Online-Marketing zunehmend Bedeutung, da die Intention z. B. durch Eingabe des Begriffs in einer Suchmaschine dem typischen AIDA-Modell vorausgeht. Alle Werbewirkungsmodelle haben gemeinsam, dass der umworbene potenzielle Käufer vom ersten Stimulus bis zum Kaufabschluss zwischen mindestens 4 und bis maximal 10 Phasen durchläuft. Diese Wirkungsstufen bilden eine Hierarchie der Effekte von Ursache und Wirkung. Vom vierstufigen AIDA-Modell weicht das CAB-Modell ab. CAB steht für Cognition (Wahrnehmung), Affect (Emotion/Effekt) und Behaviour (Verhalten). Hinter diesen drei Buchstaben steckt ein komprimiertes Werbewirkungsmodell, das von AIDA beeinflusst ist, den Prozess bis zum Abschluss aber anders beschreibt. Die DAGMAR-Formel ist ein der AIDA-Formel ähnliches Modell, das aber den Fokus stärker auf Wirkung und Erfolg der Werbung lenkt. DAGMAR steht für Defining Advertising Goals for Measured Advertising Results und beschreibt zum einen das Ziel der Werbung, aber stellt zugleich ihre Bedeutung als Kommunikationsmedium heraus. Infolgedessen steht DAGMAR nicht allein für den Verkaufsprozess, sondern auch für die gesamte Marketingkommunikation, so dass dieses Modell zu einer festen Größe im Marketing geworden ist.
Die Einfachheit des AIDA-Modells stößt in Zeiten volatiler Märkte und crossmedialer Kommunikations- und Distributionskanäle zunehmend auf Kritik. Die lineare und starr wirkende Abfolge der einzelnen Phasen vernachlässigt die zunehmend dynamischen und variierenden Zusammenhänge von Marketingbotschaften und -absichten im digitalen Zeitalter. Es geht davon aus, dass mit jedem gezielten Reiz eine konkrete Reaktion zustande kommt, was bekanntlich heute nicht mehr der Fall sein muss. Eine weitere Kritik besteht darin, dass im Mittelpunkt des Modells der prozessuale Weg zum Abschluss ist. Der Kunde kommt nur als handelndes Ziel der Begierde vor. In Zeiten von Customer Centricity und Customer Experience bleiben Dialog, Interaktion und Erlebnis auf der Strecke und werden im Rahmen moderner Verkaufspsychologie vernachlässigt.
Akkumulationsstrategie
A wie Akkumulationsstrategie
→Sprinkler-Strategie
Algorithmisierung
A wie Algorithmisierung
Die →Digitalisierung als wohl größter →Megatrend verändert alle Bereiche der Gesellschaft und führt zur Neustrukturierung der gesellschaftlichen, technologischen und sozialen Strukturen. Durch Digitalisierung und Automatisierung bekommen Daten einen bislang nicht gekannten Wert. Algorithmen prägen bereits heute in großem Maß alle gesellschaftlichen Bereiche. Der Trend der Algorithmisierung ist einer der Megatrends und wohl eine der bedeutendsten Entwicklungen in der Data Ära. Durch intelligente Datenformeln lernt die Umgebung auf alle erdenklichen Situationen zu reagieren und Entscheidungen zu fällen. Ob dies rückblickend Fluch oder Segen gewesen sein wird, bleibt wie bei allen Innovationen abzuwarten und ist eine Ermessens- und Abwägungssache. Smarte Formeln leben davon, dass sie mit Daten versorgt werden – und Mensch und Maschine liefert diese bewusst und unbewusst permanent, während sie sich durch die digitale (und zum Teil auch analoge) Welt bewegen. Je mehr Algorithmen über Abläufe, Entscheidungen und Prozesse sowie deren Auswirkungen wissen, desto stärker können sie auf ihr Umfeld reagieren und dieses beeinflussen, manipulieren, optimieren, entlasten und gestalten. Durch die zunehmende Vernetzung der durchstrukturierten Algorithmen im Zusammenspiel mit →künstlicher Intelligenz ergeben sich ungeahnte Möglichkeiten in einer digitalisierten Welt von morgen. Algorithmen nehmen dem Menschen bereits heute unzählige Entscheidungen ab. Der Fokus der Algorithmisierung liegt allerdings nicht mehr darauf, Entscheidungen zu treffen, wenn sie anstehen, sondern smarte Datenformeln innovativ zu nutzen, um zukünftige Entscheidungen zu ermöglichen. Durch den Einsatz von Sensorik werden Computer zunehmend „feinfühliger“ und durch Machine Learning schneller und zunehmend intelligenter. Längst macht der sich selbst optimierende Algorithmus die Runde und wird über die Frage entscheiden, wie viel Annehmlichkeiten auf der einen Seite wie viel Freiheit und Unabhängigkeit auf der anderen Seite noch zulassen wird. Der Umgang mit den →Big Five zeigt, dass der Mensch in jeder Sekunde seines Handelns Daten hinterlässt und somit transparent wird – sei es durch Bewegungsprofile, Bezahldaten, Such-, Informations-, Nutzungs- und Kommunikationsverhalten. Gleichzeitig helfen Algorithmen in einer Welt der Daten- und Informationsüberflutung nicht unterzugehen und den Menschen zu entlasten und seinen Alltag zu optimieren. Der Umgang mit diesen Möglichkeiten wird letztendlich darüber entscheiden, ob die Algorithmisierung Fluch oder Segen sein wird.
Arbeitsplatz der Zukunft
A wie Arbeitsplatz der Zukunft
Begriffe wie Arbeitsplatz der Zukunft, Digital Workplace, New Work oder Mobile Office usw. werden häufig synonym verwendet. Zum Teil berechtigt, da die Grenzen fließend und die dahinterliegenden Beschreibungen nahezu identisch sind, zum Teil völlig unberechtigt, da mit jedem einzelnen Begriff andere Trends und Entwicklungen gemeint sind. In einem Punkt sind sich allerdings alle Zukunftsforscher einig: Daten werden die Arbeitsplätze von morgen bestimmen. In Zeiten von Big Data müssen Daten schneller und effizienter analysiert und verarbeitet werden. Neben Digitalisierung wird auch Automatisierung eine immer größere Rolle spielen. Am digitalen Arbeitsplatz führt kein Weg mehr vorbei. Coronabedingt haben Unternehmen erkannt, dass digitale Arbeitsplätze und damit verbunden agile Arbeitsmethoden mehr Mobilität und Flexibilität gebracht haben und Prozesse schneller und schlanker geworden sind.
Der „Arbeitsplatz der Zukunft“ ist allerdings kein Produkt, das ein Unternehmen in kurzer Zeit einführen kann, sondern eine tiefgreifende Veränderung der Unternehmenskultur mit Auswirkungen auf Arbeitsmethoden und -modelle, kollaborative Zusammenarbeit nach innen und außen, technologische Infrastruktur sowie Unternehmensstrukturen und Geschäftsprozesse. Je nach Perspektive des Einzelnen: Während Arbeitgeber mit der Digitalisierung des Arbeitsplatzes in erster Linie Mobilität, Technologie und höhere Effizienz assoziieren, verbinden Arbeitnehmer dagegen hauptsächlich einen Wandel der Arbeitszeitmodelle (z. B. Homeoffice, remote work, Co-working) sowie flexiblere Arbeitsmethoden und mehr Gestaltungsspielraum. Unternehmen sind gefordert, Arbeitsplatz- und Mobilitätskonzepte für die gesamte Organisation zu entwickeln und hierbei zu berücksichtigen, dass auch der Arbeitsplatz ihrer Kunden zunehmend digital wird.
Deshalb sind feste Büroarbeitsplätze ein Auslaufmodell, auch dann, wenn in der Post-Corona-Zeit Kontaktbeschränkungen wieder komplett aufgehoben sind. Home- und Mobileoffice sowie virtuelle Meetings bestimmen den Arbeitsplatz der Zukunft. Angesichts der Angebote an Desk Sharing oder Co-Working Spaces kann jeder Mitarbeiter jederzeit und an jedem Ort arbeiten. Ein Digital Workplace verändert grundlegend die Arbeitsweise für Unternehmen und ihrer Organisationen. Neben der Eigenorganisation des Mitarbeiters müssen Unternehmen die Sicherheit dezentraler Archivierung, des Informations- und Datenaustausches sowie den standort- und geräteunabhängigen Zugriff sicherstellen.
Je nach Branche und Tätigkeit werden digitale Prozesse wie Automation oder auch künstliche oder kontextualisierte Intelligenz Tätigkeiten übernehmen, so dass Veränderungen auch Wegfall bestehender und die Schaffung neuer Arbeitsplätze bedeutet. Letzteres wird schon synonym als ‚War for Talents‘ bezeichnet, bei dem es nicht nur um die junge Generation geht, sondern um qualifizierte Fach- und Führungskräfte aller Altersgruppen. Einer der Treiber ist der Megatrend Individualisierung. Zukünftig geht es nicht mehr um ein Vertragsverhältnis, bei dem eine Seite ihre Leistung zur Verfügung stellt und der andere das dafür vereinbarte Gehalt zahlt. In Zukunft muss der Job vereinbar sein mit der Sehnsucht nach Selbstbestimmung, maximaler Freiheit, Kreativität und ausreichender Freizeit – und weniger mit den Wünschen und Zielen des Arbeitgebers.
Neben Digitalisierung und Individualisierung müssen Innovationen als nächster Treiber für den Arbeitsplatz der Zukunft genannt werden. Die bisherige Arbeitsumgebung in den meisten Unternehmen war monoton, sachlich sowie funktional und somit demotivierend und völlig ungeeignet, um Teamwork, Kreativität und innovative Ideen zu fördern. Innovative Raumkonzepte reagieren auf Verhaltensmuster von Menschen und unterstützen kreative Potenziale. Daher geht es um mehr als nur um kreative und/oder digitale Gestaltungs- oder Einrichtungskonzepte. Ganzheitliche Raumkonzepte sind der visualisierte und gelebte Ausdruck einer innovationsfreundlichen Unternehmenskultur, um andere Sichtweisen zu entwickeln und kreative sowie innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Hierzu werden innovative Raumkonzepte je nach Funktionalität, Interaktion und Dynamik differenziert. Und egal, ob die flexiblen, innovativen und multisensorischen Räume als Ideenmanufaktur, Kreativwerkstatt, Innovationsschmiede, Innovation Lab oder Creative Space bezeichnet werden – im Endeffekt geht es darum, Kreativität, innovative Ideen, Veränderungsprozesse, Kommunikation und agile Kollaboration zu fördern.
Archetypen
A wie Archetypen
Archetypen sind ein Konzept aus der Psychologie und lassen sich als Urbilder beschreiben. Der Schweizer Psychoanalytiker Carl Gustav Jung identifizierte bereits in seiner Dissertation im Jahre 1902 zwölf vorprogrammierte Verhaltensmuster, die man bei jedem Menschen finden kann, unabhängig von Nationalität, Religion, Alter oder Geschlecht. Er konstruierte daraus 12 sich differenzierende Persönlichkeiten und nannte diese 1934 erstmals „Archetypen“. In den 1960-er Jahren beschrieb der Tiefenpsychologe Fritz Riemann diese in seinem Buch „Grundformen der Angst“ als treibende Kräfte der Persönlichkeitsentwicklung. Auch Abraham Maslow erkannte die archetypischen Verhaltensmuster als hintergründige Kräfte für grundlegende Motivationen und Bedürfnisse von Menschen und verwendete diese in seiner berühmtem Pyramide („Maslowsche Bedürfnishierarchie“). Die amerikanische Marketing-Professorin Jennifer Aaker von der Stanford Universität griff 1997 das Modell auf und ermittelte 15 verschiedene Facetten von Markenpersönlichkeiten. Spätestens das Werk der Markenexperten Margaret Marks und Carol S. Pearson „The Hero and the Outlaw: Building Extraordinary Brands Through the Power of Archetypes“ etablierte 2001 endgültig das Modell der Archetypen international zu einer anerkannten Methode für die strategische Markenpositionierung und -führung, die längst auch für andere Bereiche übernommen wurde.
Archetypen eignen sich hervorragend als Identifikationsfigur, sind universell einsetzbar und haben eine globale Symbolkraft. Sie werden seit Generationen mit ähnlichen Emotionen und Assoziationen in Verbindung gebracht, lassen sich authentisch umsetzen und anschaulich inszenieren. Zudem sind sie zeitlos und liefern bei aller Subjektivität eine objektive Bezugsgröße. Archetypen haben eine hohe Wiedererkennung, geben Orientierung und wirken somit stabilisierend. In der Markenpositionierung und -führung haben sie vor allem eine Aufgabe: sie geben der Markenpersönlichkeit ein spezifisches Profil, eine konkrete Identität. Auch wenn der Archetyp nicht nach außen kommuniziert wird, verursacht er bei dem Empfänger eine unbewusste Markensympathie und intuitives Markenvertrauen.
Um die archetypischen Verhaltensmuster nutzen zu können, übertrug Pearson die vier psychologischen Verhaltensweisen
- Ordnung/Sicherheit/Stabilität/Kontrolle
- Dominanz/Macht/Wandel/Meisterschaft
- Verbindung/Glück/Solidarität/Zugehörigkeit
- Unabhängigkeit/Individualität/Freiheit/Selbstverwirklichung.
von Menschen in ein Koordinatensystem und entwickelte daraus ein archetypisches Positionierungsmodell. Anschließend wurden die archetypischen Verhaltensmuster den Quadranten zugewiesen und ergaben somit die 12 Archetypen. Diese werden als
- der Unschuldige bzw. der Ehrliche
- der Weise
- der Entdecker
- der Rebell
- der Zauberer bzw. der Magier
- der Held
- der Liebende bzw. der Genießer
- der Narr bzw. der Spaßvogel
- der Durchschnittstyp bzw. der Jedermann
- der Betreuer bzw. der Beschützer
- der Herrscher
- der Schöpfer
bezeichnet. Je stärker die Archetypen den psychologischen Verhaltensmustern von Menschen entsprechen, desto weiter außen sind sie zu finden.
Der Unschuldige oder Ehrliche ist neugierig, spontan und optimistisch mit einem gewissen Maß an Naivität sowie moralisch und liebevoll. Seine wichtigsten Werte sind Glück und Vertrauen. Sein höchstes Ziel besteht darin, andere glücklich zu sehen. Ihm ist es wichtig, dazu zu gehören und Teil von etwas zu sein. Er hält sich an Regeln, ist ehrlich und glaubt an das Gute. Der Unschuldige wird als glaubwürdig und verlässlich angesehen. Marken dieses Archetypus liefern eine relativ simple Antwort auf ein Problem und haben eine klare Moralvorstellung. Bekannte Marken dieses Archetyps sind Disney, McDonalds, Tempo, Evian, Hipp und Frosch. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken umweltbewusst und fürsorglich, zeigen lachende Kinder und glückliche Familien.
Dem Weisen geht es vor allem um Wahrheit, Gerechtigkeit und Aufklärung. Mit seiner Intelligenz, seinem Verstand und der Besonnenheit, wahrheitsliebenden Art und analytischen Fähigkeiten möchte er die Welt erkennen und erklären. Sein Ziel ist das Bewahren der Menschheit vor Irrtümern. Er hasst Ignoranz. Daher eignet sich dieser Archetyp vor allem für Forschungseinrichtungen oder Unternehmen, die ihre Kunden zum (Nach)Denken inspirieren. Bekannte Marken sind die Fraunhofer-Gesellschaft, die Stanford und Harvard University sowie Beratungsunternehmen wie McKinsey oder Boston Consulting. Auch Marken wie Stiftung Warentest, TED oder IBM zählen zu diesem Archetyp.
Der Entdecker muss Abenteuer erleben und will die Welt erforschen. Er ist ehrgeizig, unbeirrbar, mutig, probiert Neues aus und legt großen Wert auf Freiheit und Unabhängigkeit. Er meidet Konformität und will nicht eingeengt werden. Sein Ziel ist die Auseinandersetzung mit allem Neuem und ein erfülltes Leben. Der Entdecker ist immer auf der Suche und seine Neugierde kennt keine Grenzen. Bekannte Beispiele sind die Brauerei Becks, Ikea, Jeep und Jack Wolfskin.
Der Rebell bricht Regeln aus tiefster Überzeugung. Seine Philosophie besteht in Disruption, Revolution oder Schock. Der Rebell bricht aus dem Mainstream aus. Er will stören, manchmal auch zerstören. Sein Auftreten ist oft kämpferisch oder verschmitzt. Vor allem, wenn eine junge Zielgruppe erreicht werden soll, ist dieser Archetyp ein wirksames Instrument. Bekannte Beispiele sind Red Bull, Virgin, Tesla, Dell, Harley Davidson oder Saturn. Früher war Apple der Inbegriff des Rebellen.
Der Zauberer oder Magier wird als wissensdurstig, kreativ, visionär und zukunftsweisend wahrgenommen. Er sucht nach Möglichkeiten und findet Lösungen, die die Welt bewegen. Neben Technologieunternehmen werden oft Startups mit dem Zauberer assoziiert. Bekannte Beispiele sind Apple, Google und Tesla, aber auch Dyson und die Walt Disney Company.
Der Held kommt in unterschiedlichen Formen vor. Als Wettkämpfer oder Retter ist er willens- und wissensstark, stolz, selbstbewusst und hilfsbereit. Seine Ziele verfolgt er mit hohem Selbstvertrauen und dem Glauben, das Schlechte zu bekämpfen und das Gute zu schützen. Er kennt seine eigene Stärke, ist kompetent, mutig, umsetzungsstark und verfügt über überdurchschnittliche Fähigkeiten. Dem Held ist auch immer eine Geschichte zugeschrieben, denn ein Held ist nur ein Held, wenn er auf Reise geht und eine Herausforderung annimmt. Bekannte Beispiele sind Porsche, Apple, Nike und Krombacher.
Der Liebende oder Genießer ist leidenschaftlich, verführerisch und steht für Nähe und Geborgenheit. Er gibt anderen das Gefühl, einzigartig zu sein und vermittelt Verständnis sowie Dankbarkeit. Außerdem zeichnet den Archetyp aus, dass er seine Attraktivität steigern möchte, lieben will und geliebt werden möchte. Außerdem steht dieser Archetyp für Genuss. Bekannte Beispiele sind Kaffee- und Schokoladensorten im Premiumsegment sowie die Marke Lenor, Montblanc und Chanel. Eine Untervariante dieses Archetypus ist die Sirene, die Verführerin des Odysseus. Ihr Wesen ist zweischneidig, da ihrer Attraktivität etwas Zerstörerisches anhaftet. Sie ist der Urarchetyp des „Sex Sells“ für alle Männerprodukte vom Auto bis zur Zeitschrift.
Der Narr oder Spaßvogel oder auch Charmeur sucht das Vergnügen und die Freude in allem, was er macht. Ihm ist die Sympathie anderer wichtig, deshalb unterhält er sie. Zudem ist es sein Ziel, andere zu bespaßen. Er lebt im Hier und Jetzt und genießt den Augenblick. Er ist das Gegenteil von Langeweile. Bekannte Beispiele sind BVG, Edeka, AIDA, Media-Markt oder Axe.
Der Jedermann ist das genaue Gegenteil des Helden – der Anti-Held. Er ist unauffällig, bodenständig, angepasst, „08/15“ und angenehm. Seine Empathie, Gradlinigkeit, Zuverlässigkeit und Bodenständigkeit sowie Loyalität zeichnen ihn aus. Er möchte auf keinen Fall auffallen und schon gar nicht anecken oder ausgegrenzt werden. Damit ist dieser Archetyp eine der schwierigsten Herausforderungen in der Markenpositionierung, da diese Marken ohne Ecken und Kanten auskommen müssen und dennoch ein Markenprofil entwickeln müssen. Bekannte Beispiele sind Ikea, Aldi, Coca-Cola, Coop, Rewe und VW.
Der Betreuer bzw. Beschützer wird als selbstlos, einfühlsam und fürsorglich wahrgenommen. Er vermeidet Egoismus, will andere helfen, unterstützen und Schutz bieten und ist verantwortungsbewusst. Ihn treibt die Überzeugung an, dass nur Nächstenliebe das Leben erfüllt. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken bewusst fürsorglich, zeigen lachende Kinder und glückliche Familien. Bekannte Beispiele sind Nivea, Volvo, Tempo, Hipp und die Drogeriemarktkette DM.
Der Herrscher steht für Macht, Autorität und Kontrolle sowie den Erhalt von Sicherheit und Ordnung. Mit großem Verantwortungsbewusstsein strebt er das Ziel einer harmonischen Gesellschaft an. Er versucht, seine Macht für Gutes zu nutzen. Er zeigt seinen Führungsanspruch deutlich und will diesen ausbauen. In übertriebener Form neigt er zu Rechthaberei und hat Angst vor Kontrollverlust. Dieser Archetyp passt zu Markt- und Innovationsführern sowie Premiummarken. Bekannte Beispiele sind Mercedes-Benz, BILD, Microsoft, Rolex und auch Amazon.
Der Schöpfer ist experimentierfreudig und kreativ. Er will seine Visionen in die Tat umsetzen und für die Welt erlebbar machen. Er will eine neue Realität schaffen. Seine Werte sind selbstverwirklichend, innovativ und kreativ. Mittelmäßigkeit vermeidet er, vor Fantasielosigkeit hat er Angst. Bekannte Beispiele sind Hornbach, Adobe, Lego und Apple.
Erfolgreiche Marken mit einem eindeutigen Markenkern sind in der Regel einem Archetypen und nur in Ausnahmen zwei benachbarten Archetypen zuzuordnen und lösen ein spezifisches Markenbild aus.
ARPANET
A wie ARPANET
ARPANET ist ein Akronym und steht für Advanced Research Projects Agency Network. Dieses dezentrale Computer-Netzwerk wurde im Auftrag der US Air Force Ende der 1960-er Jahre unter der Leitung des Massachusetts Institute of Technology und des US-Verteidigungsministeriums entwickelt und sollte verschiedene US-amerikanische Universitäten, die für das Verteidigungsministerium forschten, miteinander verbinden. Technologisch baute es auf ein Konzept von Licklider aus dem Jahr 1962 auf, das unter dem Namen „Intergalactic Computer Network“ bereits viele Ideen enthielt, die das heutige Internet auszeichnet. Die erste Datenübertragung erfolgte am 29. Oktober 1969 zwischen Computern an der University of California (Los Angeles) und dem Stanford Research Institute (San Francisco). Im Jahr 1983 wurden TCP/IP-Protokolle im ARPANET eingesetzt, wodurch das ARPANET ein Subnetz des frühen Internets wurde. Es gilt als der Vorläufer des heutigen Internets.
Artificial Intelligence (AI)
A wie Artificial Intelligence (AI)
Artificial Intelligence ist kein neuer Begriff, auch wenn dieser erst in den letzten Jahren vermehrt verwendet wird. Der Begriff tauchte bereits 1955 auf, als der US-amerikanische Informatiker John McCarthy diesen im Rahmen eines Förderantrags für ein Forschungsprojekt beschrieb. Artificial Intelligence (AI) wird übersetzt mit künstlicher Intelligenz (KI) und beschreibt ein Teilgebiet der Informatik. Dieses beschäftigt sich damit, Aspekte menschlichen Denkens und Handelns mit und durch Maschinen und Computer nachzubilden. Die Automatisierung intelligenten Verhaltens und das Maschinenlernen sind dabei wichtige Bestandteile.
Der Begriff ist schwierig zu definieren, da es nicht einmal eine wissenschaftlich anerkannte Definition von allgemeiner „Intelligenz“ gibt. In der Verwendung des Begriffs künstliche Intelligenz wird in der Regel das Verständnis widergespiegelt, das eine Maschine und Computer das menschliche Denken und Handeln „ersetzen“ sollen. Hierbei unterscheidet die Wissenschaft zwischen einer schwachen KI, die menschliches Denken und Handeln automatisiert und eine starke KI, bei der menschliches Sehen, Hören, Analysieren, Entscheiden und Handeln durch eine Maschine und Computer nachempfunden wird und hierbei intelligent reagiert oder sich wie ein Mensch verhält. Die Vorstellungen einer starken KI in Form emotionaler Intelligenz oder der Fähigkeit, selbst kreativ zu werden, sind aber weiterhin visionär.
Umstritten ist der Versuch, einen Computer so zu programmieren, damit dieser menschliche Entscheidungsstrukturen nachbilden kann. Denn dieser Ansatz dient mehr der Automation im Sinne einer nachgeahmten Intelligenz als dem von autark denkenden und handelnden Maschinen. Hierfür sind Maschinen und Computer mit der Fähigkeit erforderlich, anhand von Daten und mithilfe selbstlernender Algorithmen bestimmte Muster und Gesetzmäßigkeiten zu erkennen und zu analysieren, um daraus Zusammenhänge wie Rückschlüsse und Vorhersagen treffen zu können. Die Schlüsseleigenschaften menschlichen Denkens wie Lernen, Logik und Selbstreflektion werden hierbei künstlich initialisiert und nachgebildet. Trotz einer simulierten Ähnlichkeit unterscheiden sich Kognition und Entwicklungsstadien deutlich vom menschlichen Denken und Handeln. Auch wenn eine Maschine und ein Computer menschliche Gefühle wie Liebe, Hass oder Angst simulieren und täuschend echt wiedergeben können, sind sie dennoch nicht in der Lage, dies zu empfinden.
Zu den bekanntesten Arten künstlicher Intelligenz gehören
- Logical AI, bei der die künstliche Intelligenz bestimmte Situationen aus Daten analysiert und daraus den nächsten „logischen“ Schritt ableitet und eine Entscheidung trifft, die einer definierten Zielerreichung dient
- Search, bei der die künstliche Intelligenz aus einer Vielzahl potenzieller Möglichkeiten den plausibelsten und/oder idealtypischen nächsten Schritt auswählt
- Pattern Recognition, bei der die künstliche Intelligenz verschiedene Muster erkennt und kombiniert und daraus ein ganzheitliches Bild erstellt
Die künstliche Intelligenz wird heute schon in vielen Bereichen eingesetzt wie z. B. in der Forensik, Produktion und Prozesssteuerung, virtuellen Assistenten und Chatbots oder auch digitalen Sprachassistenten.
Augmented Reality (AR)
A wie Augmented Reality (AR)
Der Begriff Augmented Reality („erweiterte Realität”) beschreibt die Wahrnehmung einer um virtuelle und interaktive Elemente erweiterten realen Welt. Dies bedeutet, dass Augmented Reality sowohl die reale als auch virtuelle Welt abwandelt. Im Gegensatz zu Virtual Reality wird bei Augmented Reality keine virtuelle Welt geschaffen, die den Nutzer vollständig umgibt, sondern die physische Welt durch computergenerierte Einzelelemente ergänzt oder erweitert bzw. überlagert. Augmented Reality setzt in erster Linie auf die Interaktion zwischen virtuellen Elementen in einer realen Umgebung, um somit eine Augmentierung hervorzurufen, wodurch der Nutzer eine erweiterte Realität wahrnimmt. Im Idealfall entsteht beim Nutzer der Eindruck, dass die (physisch) realen und die virtuellen Objekte in ein und demselben Raum koexistieren. Man spricht dann auch von der AR-Experience (Begeisterung). Dabei können visuelle, akustische, haptische, gustatorische oder olfaktorische Sinne angesprochen werden. Des Weiteren muss das AR-System interaktiv in Echtzeit funktionieren. Augmented Reality ist nicht nur eine Technologie, sondern sollte auch als Kommunikationsmedium nicht vernachlässigt werden. Im Gegensatz zu Virtual Reality bleibt jedoch der Aspekt der Immersion unberücksichtigt, da bei AR nicht das vollständige Eintauchen in eine virtuelle Welt, sondern das authentische Erweitern der realen Welt im Vordergrund steht.
Damit eine Augmented Reality Anwendung eine Verbindung zwischen realer und virtueller Welt herstellen kann, muss sie zunächst eine Lokalisierung durchführen. Dabei handelt es sich nicht zwingend um eine GPS-Lokalisierung, sondern kann auch mittels QR-Code ähnlichen Elementen (genannt Marker) erfolgen.
Autonomes Fahren
A wie Autonomes Fahren
Autonomes Fahren ist eines der großen →Megathemen der Automobilindustrie. Es beschreibt das vollständig automatisierte Fahren eines Fahrzeugs ohne aktiven Fahrer und darf nicht mit assistiertem, automatisiertem oder teilautonomen Fahren gleichgesetzt werden. Genau genommen definiert autonomes Fahren im engeren Sinne nur den höchsten Automatisierungsgrad nach Level 4 und 5. Der Weg dorthin wird als automatisiertes oder pilotiertes Fahren bezeichnet, bei dem verschiedene Assistenzfunktionen den Antrieb, die Lenkung und die Bremse steuern bzw. in diese Systeme situativ und in Echtzeit eingreifen. Autonomes Fahren setzt verschiedene Arten von Assistenzsystemen voraus, die miteinander kommunizieren und die Funktion und Sicherheit autark gewährleisten. Hierzu gehören u. a. Geschwindigkeits-, Brems-, Stau-, Spurhalte-, Abbiege- und Einparkassistenten. Hinzu kommen Kameras und Mikrofone sowie unterschiedliche Sensorsysteme (z. B. Laser-, Ultraschall-, Radar- und Lidarsensoren für die Abstandsmessung). Die Technologien für das autonome Fahren sind eng mit der Konnektivität verbunden.
Die SAE (Society of Automotive Engineers) hat fünf Level des automatisierten bzw. autonomen Fahrens definiert. Diese Einteilung hat sich weltweit in der Automobilindustrie etabliert. Beim Level Null lenkt, beschleunigt und bremst der Fahrer selbst („Driver only“). Der Level 1 definiert einen assistierten Modus. Das Fahrzeug verfügt über einzelne unterstützende Systeme wie z. B. das Antiblockiersystem (ABS), Elektronische Stabilitätsprogramm (EPS) oder der Abstandsregeltempomat (ACC), die situativ selbsttätig eingreifen. Beim Level 2 übernehmen Assistenten teilautomatisierte Aufgaben wie z. B. die adaptive Geschwindigkeitsregelung, den Spurwechsel-, Stau- oder Einparkassistent sowie die automatische Notbremsung. Der Fahrer behält aber die Hoheit über das Fahrzeug und die volle Verantwortung. Von Level 3 ist die Rede, wenn das Fahrzeug streckenweise selbsttätig beschleunigen, bremsen und lenken kann (bedingte Automation). Das Fahrzeug führt selbständig Funktionen aus wie z. B. das Auslösen des Blinkers, den Spurwechsel und das Spurhalten. Der Fahrer muss das System nicht dauernd überwachen. Bei Bedarf fordert das System den Fahrer innerhalb einer Vorwarnzeit auf, die Kontrolle wieder zu übernehmen. Im Level 4 wechselt das Fahrzeug von dem hoch automatisierten in den autonomen Betrieb. Der Fahrer hat allerdings die Möglichkeit, einzugreifen und das System zu „überstimmen“. Gleiches gilt, wenn das System die situativen Fahraufgaben nicht mehr bewältigen kann. Dann übernimmt der Fahrer wieder die Führung. Der Level 5 definiert den vollautomatisierten, autonomen Betrieb des Fahrzeugs ohne die Möglichkeit (und Notwendigkeit) des Eingreifens durch den Fahrer. Der Fahrer übernimmt lediglich die Festlegung des Ziels und das Starten des Systems. Das Fahrzeug kommt ohne Lenkrad und Pedale aus.
Experten sind sich aktuell noch uneinig, wann autonomes Fahren die technische Reife zu 100% erreicht haben wird. Während das Fraunhofer-Institut IAO diesen Zeitraum für 2025 angab, prognostizierte die Deutsche Akademie der Technikwissenschaften (acatech) diesen Zeitraum nicht vor 2030. Angaben der Automobilhersteller sind dies bzgl. widersprüchlich. Beim autonomen Fahren mischen nicht nur die klassischen Automobilhersteller und ihre Zulieferer mit. Start-ups, Tech-Unternehmen und Elektronik-Konzerne prägen den Entwicklungsstand maßgeblich mit und sind dabei, sich Marktanteile in diesem Zukunftssegment zu sichern. Neben den Schwergewichten Google, Apple und Amazon sind vor allem die Unternehmen Cruise, Waymo, Mobileye, Aurora und Baidu zu nennen, die bei der Entwicklung so genannter Robotaxis weltweit als führend gelten.
Neben den technischen Herausforderungen vor allem in stark befahrenen Ballungsgebieten und schlecht einsehbaren Verkehrssituationen sind vor allem noch rechtliche, versicherungstechnische und ethische Fragestellungen beim autonomen Fahren zu klären. Erste rechtliche Rahmenbedingungen zum automatisierten Fahren in Deutschland wurden bereits 2017 geschaffen. Hierbei ging es im Wesentlichen um veränderte Rechte und Pflichten des Fahrers während ein Fahrzeug automatisiert fährt. Im Juli 2021 wurde ein Gesetz verabschiedet, mit dem die Zulassung von autonomen Fahrzeugen (Stufe 4) in festgelegten Bereichen möglich ist und im Juli 2022 die entsprechende Verordnung, in der die Details geregelt sind. Bei allen offenen Fragestellungen und Herausforderungen für die Versicherungsbranche haben einige Versicherer (u. a. die Allianz) bereits signalisiert, entsprechende Lösungen anbieten zu können. Allerdings benötigen die Versicherer für die Schadensabwicklung den Zugriff auf die Daten von Sensoren, was lt. Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in Europa noch nicht geregelt ist. Autonomes Fahren stellt nur auf den ersten Blick für Versicherer ein erhöhtes Risiko dar. Mehrere Studien konnten belegen, dass das Fahren durch mehr Assistenzsysteme sicherer wird und somit zu weniger Fahrzeugschäden und einem Rückgang der Entschädigungsleistungen der Assekuranzen führen wird.
Deutlich komplexer sind ethische Fragen im Zusammenhang mit dem autonomen Fahren. Auch mit dem Einsatz hoch moderner Assistenzsysteme wird es Situationen geben, in denen Unfälle mit Personenschäden unvermeidbar sind. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn z. B. ein Kind auf die Straße läuft, instinktiv reagieren – eine Fähigkeit, die der →künstlichen Intelligenz auf Jahre noch abgesprochen werden kann. Davon abgesehen, muss in diesen Situationen blitzschnell reagiert werden – eine Fähigkeit, bei denen künstliche Intelligenz dem Menschen überlegen ist. Deshalb müssen im Vorfeld Regeln definiert werden, wie sich ein autonomes Fahrzeug in welcher Situation zu verhalten hat. Aus diesem Grund hat eine Ethikkommission der Bundesregierung im Jahr 2017 mit dem Namen „Automatisiertes und vernetztes Fahren“ bereits Leitlinien erarbeitet. Eine Kernaussage besagt, dass bei „unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen wie z. B. Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt ist“. Auch eine „Aufrechnung von Opfern“ ist nicht erlaubt. Mehrere Studien konnten belegen, dass die Fehlerhäufigkeit der künstlichen Intelligenz bei „moralischen Fragen“ besonders hoch ist.
Bei Prognosen über das autonome Fahren wird ein großer Fokus auf die technologischen Entwicklungen gelegt. Die Akzeptanz der Nutzer wird noch zu wenig hinterfragt. Eine Studie des Prognos-Forschungsinstituts belegt, dass sich autonomes Fahren nur sehr langsam durchsetzen wird. Das liegt zum einen darin, dass neue Fahrzeuge durchschnittlich 15 bis 20 Jahre im Einsatz sind und sich deshalb diese neue Technologie nur ganz allmählich im Markt durchsetzen wird. Die Studie geht davon aus, dass der Anteil autonom fahrender Autos im Jahr 2050 bei ca. 70 Prozent liegen wird. Zum anderen muss das Vertrauen in autonome Fahrzeuge erst wachsen.
B wie BaaS (Backend-as-a-Service)
B wie BaaS (Backend-as-a-Service)
Der Begriff „Backend as a Service“ (BaaS) beschreibt die Bereitstellung einer gehosteten Backend-Infrastruktur. BaaS ist ein Service des →Cloud-Computing und bietet Entwicklern die Möglichkeit, schnell und einfach ein individuelles Backend konfigurieren zu können. Somit müssen diese nicht mehr die komplette Infrastruktur für eine Web-Anwendung selbst programmieren und können sich komplett auf die Gestaltung des Frontends konzentrieren. Ein weiterer Vorteil liegt darin, dass die Wartung des Backend entfällt. Diese liegt beim Anbieter des Service. Die Funktionsweise des BaaS-Anbieters gleicht dem Hosting einer Website. Er liefert die Anwendung mit unterschiedlichen Funktionen, so dass Entwickler die verfügbaren Daten zu einem individuellen Backend zusammenführen können. Auf dieses greifen die Entwickler über eine vom BaaS-Anbieter bereitgestellte Schnittstelle mit Hilfe von APIs oder einer REST-Schnittstelle zu. BaaS-Lösungen enthalten in der Regel eine Vielzahl unterschiedlicher Funktionen wie z. B. das Management der Datenbanken, automatische Updates des Backends, Nutzerauthentifizierung oder Social Log-Ins. Wie bei …as-a-Service-Angebote üblich zahlen Nutzer nur für die Kontingente, die in Anspruch genommen werden. Skalierungsmöglichkeiten sind bei Web-Anwendungen ein entscheidender Faktor, der großen Einfluss auf die Kosten haben kann. Hier bietet Backend as a Service den Vorteil, da die Skalierung wie auch die Handhabung beim BaaS-Anbieter liegt bzw. diese vom Anbieter vorgegeben wird.
B wie BABOK
BABOK ist ein Akronym für Business Analysis Body of Knowledge (vollständig, einheitlich, richtig, umsetzbar, änderbar, eindeutig und testbar).
B wie Backlog
Der Begriff Backlog wird übersetzt mit Rückstand oder Rückstau, Nachholbedarf oder Auftragsüberhang und beschreibt eine Sammlung von Dingen, insbesondere unvollständige Arbeit oder Angelegenheiten, die erledigt werden müssen. Diese Liste von Aufgaben bzw. Anforderungen, die von einem Team abgearbeitet bzw. realisiert werden sollen, ist allerdings kein Lasten- oder Pflichtenheft. Denn gegenüber einer statischen to-do-Liste früherer Prägung setzt agiles Projektmanagement auf flexible und dynamische Methoden, um auf Veränderungen iterativ reagieren und neue Priorisierung vornehmen zu können. Die unterschiedlichen Arten von Einträgen werden Backlog Items genannt. Hierzu gehören u. a. die funktionalen Anforderungen, Qualitätsanforderungen, User und Job Story, Use Case und andere. Idealerweise enthält jedes Item eine Beschreibung, eine Priorität, eine Aufwandsschätzung und einen messbaren Kundennutzen. Je höher die Priorität eines Items ist, umso genauer muss es spezifiziert werden. Backlogs werden in drei Arten unterschieden:
- →Product Backlog,
- →Release Backlog und
- →Sprint Backlog.
Sind im Rahmen einer Entwicklung verschiedene Teams involviert, wird mit Team Backlogs gearbeitet und die Items entsprechend auf die jeweiligen Team verteilt. Ist nur ein Team involviert sind Release und Team Backlog identisch. Der aktuelle →Scrum Guide kennt nur die beiden Begriffe Product und Sprint Backlog.
B wie Balanced Innovation Scorecard
→Innovation Balanced Scorecard
B wie Barcamp
Ein Barcamp (nicht zu verwechseln mit einem →Basecamp) wird auch als Unkonferenz, Mitmach-Konferenz oder Ad-hoc-Nicht-Konferenz bezeichnet, da es sich von klassischen Veranstaltungen deutlich unterscheidet. Während bei herkömmlichen Konferenzen vom Veranstalter Sprecher gebucht werden, gibt es auf Barcamps nur Teilnehmer. Es handelt sich um ein offenes Veranstaltungsformat mit offenen Workshops, deren Inhalte und Ablauf von den Teilnehmern zu Beginn der Veranstaltung selbst entwickelt und im weiteren Verlauf eigenverantwortlich gestaltet werden. Barcamps sind eine Form der Gruppenmoderation. Sie haben Ähnlichkeiten mit →Open Space, sind aber lockerer organisiert. Ein Barcamp besteht aus Vorträgen und Diskussionsrunden (so genannte Sessions), die zu Beginn des Barcamps auf Whiteboards, Metaplänen oder Pinnwänden – in so genannten Grids (Stundenplan) – durch die Teilnehmer selbst koordiniert werden. Alle Teilnehmer sind aufgefordert, selbst einen Vortrag zu halten oder zu organisieren. Das Motto eines Barcamp lautet: Geben und Nehmen, die Philosophie stellt alle auf Augenhöhe. Barcamps dienen dem inhaltlichen Austausch und der ergebnisoffenen Diskussion, können aber auch bereits am Ende der Veranstaltung konkrete Ergebnisse vorweisen. Diese können, falls gewünscht, im Rahmen des so genannten Konvergenzprozesses gewichtet und in einen Maßnahmenplan gebracht werden. Als →Open Innovation Veranstaltung bieten Barcamps viel Raum für unkonventionelle und innovative Wissensformate. Besonders typisch ist, dass die Veranstaltungen kostenlos sind und man in der Regel ohne Einladung teilnehmen kann. Ein wesentliches Element ist die soziale und fachliche Vernetzung der Teilnehmer – auch über das Barcamp hinaus – und der Spaßfaktor.
B wie Basecamp
Ein Basecamp (nicht zu verwechseln mit einem →Barecamp) ist ein spezielles Workshop-Format, das in der Regel eingesetzt wird, wenn eine Gruppe ausgewählter Teilnehmer für ein bestimmtes Thema (Teambuilding, Führungskräftecoaching, Managementklausur, Kick-off z. B. im Rahmen von Innovationsprojekten) sensibilisiert werden soll. Die auch als Smart Innovation Workshop bezeichnete Veranstaltung findet außerhalb des Unternehmens statt und wird häufig mit einem Rahmenprogramm verbunden. Das Ziel ist, die Teilnehmer aus ihrer gewohnten Routine heraus zu nehmen und abseits des Tagesgeschäfts die richtige Atmosphäre zu schaffen, damit Kreativität, innovative Ideen und freie Gedanken gefördert werden. In einem Basecamp werden oft mehr Ideen kreiert, als sonst im ganzen Jahr „nebenher“.
B wie Basistechnologie
→Technologietyp
B wie Baudrohne
In der Bauwirtschaft finden →Drohnen zunehmend ihre Anwendung in der Planung, in der Ausführung und in der Gebäudeunterhaltung. So werden Drohnen u. a. eingesetzt für die Inspektion und Überwachung, Bestandsaufnahme und Vermessung, Bauwerksprüfung und Baudokumentation. Baudrohnen werden vor allem in Bereichen eingesetzt, die für den Mensch nur schwer oder mit hohem Aufwand zugänglich sind. Außerdem übernehmen sie zunehmend gefährliche Aufgaben, die für den Mensch mit einem gewissen Risiko verbunden sind. Sie liefern spezifische und hoch detaillierte Daten zu einem Bruchteil der bisherigen Kosten und in deutlich kürzerer Zeit. Weitere Anwendungen sind die Erstellung von 3D-Modellen oder auch der Einsatz für Marketing- und Werbezwecke.
B wie Bauen 4.0
Die Digitalisierung ist längst auch in der Bauwirtschaft angekommen. Bauen soll in Zukunft digitaler, modularer und stärker automatisiert werden. Der Zusatz „4.0“ steht stellvertretend für eine neue, durch Digitalisierung, Sensorik und Robotik geprägten Stufe industrieller Entwicklungen in der Baubranche. Mit neuen Technologien sollen die verschiedenen Phasen im Lebenszyklus eines Bauwerks wie Planung, Herstellung und Nutzung sowie neu auch dem Rückbau zukünftig auf ein und derselben Informationsgrundlage bearbeitet werden: dem digitalen Gebäudepass, der in seiner Ausprägung das digitale Gebäudemodell – auch als BIM (Building Information Modeling) bezeichnet – durch zusätzliche Informationen erweitert. In der Bauwirtschaft gilt BIM als Methode der Zukunft für Planung und Abwicklung von Bauvorhaben und somit zentrales Element der Digitalisierung der Branche. Die Idee dahinter beschreibt eine geschlossene, digitale Prozesskette, in der sämtliche Phasen im Bauprozess transparent und miteinander verknüpft sind. Darüber hinaus gehören industrielle Vorfertigung und modulare Bauweise genauso zum Bauen 4.0 wie Automatisierung, Robotik und technische Entwicklungen wie z. B. das 3D Druckverfahren von Gebäuden.
B wie Bauroboter
Die interdisziplinäre Wissenschaft der Roboter ist die →Robotik. Der Begriff stammt ursprünglich vom tschechischen Wort Robota ab und bedeutet so viel wie „Arbeit“. Heute wird ein Roboter als ein automatisch gesteuertes, frei programmierbares Mehrzweckgerät bezeichnet, mit dem Material, Werkstücke, Werkzeuge oder Spezialgeräte bewegt werden kann. Der frei programmierbare Bewegungsablauf in drei oder mehr Achsen macht ihn für verschiedenste Aufgaben einsetzbar. Roboter werden in der Automatisierungstechnik entweder an einem festen Ort oder beweglich angeordnet. Aufgrund der Vielzahl unterschiedlicher Anwendungen und Einsatzgebiete werden Roboter anhand von fünf spezifischen Merkmalen (Aufgabe, Einsatzgebiet, Morphologie, Mobilität und Autonomie) unterschieden. In der Baurobotik werden drei Kategorien unterschieden:
- Teleoperierte Bauroboter (nicht autonom wie z. B. Bagger)
- Programmierbare Bauroboter (computergesteuert und z. B. mit Sensoren ausgestattet wie z. B. 3D-Baggersteuerung)
- Intelligente Bauroboter (halb- oder vollständig autonom, zum Teil unter Einsatz von künstlicher Intelligenz)
Zur dritten Kategorie gehören auch Bauroboter, die wiederkehrende Aufgaben wie Maurer- oder Schweißerarbeiten übernehmen. Diese werden als Single-task Construction Robots (STCRs) bezeichnet. Aktuell werden Bauroboter hauptsächlich noch in der digitalen Vorfertigung eingesetzt oder in hybriden Umgebungen wie z. B. dem →3D Druck. Zukünftig geht es darum, durch so genannte Exoskelette die Vorteile menschlicher Arbeitskraft und Roboter-gesteuerter Automation auch in der Baubranche miteinander zu verknüpfen. Durch Machine Learning werden diese Exoskelette künftig auch Daten im Arbeitseinsatz erfassen und analysieren. Beispiele für automatisierte und halbautomatische Bauroboter sind z. B. „Boston Dynamics Spot“ (ein mobiler Roboter für Inspektionsaufgaben auf dem Gelände einer Baustelle), „Dusty Robotics FieldPrinter“ (ein mobiler Roboter, der Grundrisse mithilfe von BIM-Daten in Originalgröße auf das Geschoss druckt), „Doxel“ (ein mobiler Roboter, der auf der Baustelle den Baufortschritt abscannt und mit dem BIM-Modell abgleicht) oder „Hilti Jaibot“ (ein mobiler Roboter für Bohr- und Montagearbeiten insbesondere Überkopfarbeiten). Thyssen Krupp Elevator hat z. B. eine Robotics-Interface-Plattform geschaffen, mit der Roboter Aufzüge benutzen und sich frei durch ein Gebäude bewegen können und dies auch zwischen unterschiedlichen Stockwerken. In wie weit humanoide Bauroboter den Handwerker auf der Baustelle ablösen und eins zu eins ersetzen wird, bleibt abzuwarten. Aktuell sieht es danach nicht aus.
B wie Baustelle der Zukunft
Mit dem Center Construction Robotics (CCR) entsteht auf dem Campus der RWTH Aachen die Baustelle der Zukunft mittels Digitalisierung. Auf der Referenzbaustelle werden neue Technologien und Automatisierungen sowie neue Bauprozesse, Bauprodukte, vernetzte Maschinen, der Einsatz von Robotern, Softwarelösungen sowie Lehr-, Arbeits- und Kommunikationskonzepte unter realen Baustellenbedingungen getestet. In dem Reallabor geht es von der industriellen Vorfertigung von Bauelementen bis hin zur automatisierten Baustelle. Das Ziel ist der Aufbau eines weitreichenden europäischen sowie regionalen Netzwerks für Forschungs-, Industrie- und Lehrkooperationen im Bereich der Transformation des Bauens. Somit können die Forschungserkenntnisse und Lehrkonzepte direkt in die Wirtschaft einfließen und gezielte Entwicklungs- und Weiterbildungsprojekte angeboten werden.
B wie Baustoffe der Zukunft
Innovative Baustoffe der Zukunft sind über den gesamten Produktlebenszyklus umweltfreundlich, intelligent und vernetzt, leistungsfähig und lange haltbar, wiederverwendbar oder hochwertig recycelbar und dazu frei von Schadstoffen. Sie sind der Schlüssel für klimaneutrales, modulares und wohngesundes Bauen und die Antwort auf Verknappung der Ressourcen wie Rohstoffe, Fachkräfte usw. Nachfolgend sollen einige interessante und vielversprechende Entwicklungen vorgestellt werden.
Auch wenn es um die Nanotechnologie ein wenig ruhiger geworden ist, gehören nanoskalierte Baustoffe immer noch zu den interessanten Entwicklungen, deren Potenzial noch lange nicht abgeschlossen ist, sei es in Form zugegebener Additive in Nanogröße oder durch die physikalisch-chemische Veränderung der nanoskaligen Oberfläche. Eine interessante Entwicklung in dem Zusammenhang ist Aerographit, was derzeit als leichtester Baustoff der Welt gilt und bis zu 75 Mal leichter ist als Styropor. Er besteht aus Kohlenstoffröhrchen, die auf Nano- und Mikroebene ineinander verwoben sind. Dennoch hält das Material hohen Druck- und Zugbelastungen stand. Außerdem ist Aerographit elektrisch leitfähig, verformbar und undurchsichtig.
Intelligente Fenster nutzen die Nanotechnologie, in dem die hindurchgelassene Menge an Licht und Wärme vom Nutzer über eine App gesteuert werden kann. Die Fenster selbst bestehen aus transparenten Solarpaneelen, über die das Gebäude mit Energie versorgt wird.
Seit einigen Jahren werden nanoskalierte Aerogele auf Silicatbasis zur thermischen Isolierung von Gebäuden eingesetzt. Die aus dem Nanogel hergestellten Beschichtungen weisen eine bis zu 3 Mal niedrigere Wärmeleitfähigkeit als Luft auf und eignen sich als Alternative zu klassischen Wärmedämm-Verbundsystemen im Rahmen der energetischen Gebäudesanierung.
Eine andere Entwicklung ist ein lichtdurchlässiger Faserbeton, der für bis zu 20 cm dicke, transluzente Wände verwendet werden kann. Die Wände bestehen aus einer homogenen Verbindung aus Glasfasern und einem sehr feinkörnigen Beton, der die hohe Lichtdurchlässigkeit sicherstellt.
Beton ist nach wie vor der am meisten genutzte Baustoff der Welt, auch wenn er Risse bekommt, sobald er chemischen Substanzen oder Wasser ausgesetzt ist. Seit einigen Jahren werden spezielle Bakterienstämme eingesetzt, die Calciumcarbonat produzieren, sobald sie mit Wasser in Kontakt kommen. Infolgedessen beginnen diese Mikroorganismen selbständig mit der Reparatur und dem Verschluss der feinen Risse. Experten gehen von einer Haltbarkeit selbstheilender Betone von 200 Jahren aus.
Eine der vielversprechendsten Entwicklungen ist Carbonbeton. Hierbei ersetzt der Hightech-Werkstoff Carbon die schweren Stahlstäbe und -matten im Stahlbeton. Der Verbundwerkstoff aus Beton und Kohlenstofffasern (Carbon) ist 4 Mal leichter, 4 Mal dichter und 5 bis 6 Mal tragfähiger. Dadurch werden Betonwände schlanker und benötigen weniger Material. Nach Angaben der Forscher können bei biegebeanspruchten Bauteilen wie Träger oder Unterzügen bis zu 50% Beton eingespart werden. Ebenfalls um 50 % reduziert sich der CO2-Ausstoß. Carbonbeton verfügt über mehr Festigkeit, Haltbarkeit und Leichtigkeit als herkömmlicher Beton und rostet nicht. Da sich diese flexible Bewehrung fast allen Formen anpassen kann, sind auch filigrane Bauten möglich. Allerdings werden herkömmliche Carbonfasern aus Erdöl gewonnen. Forscher arbeiten bereits daran, diese Faserbewehrung in Zukunft stattdessen aus nachwachsenden Rohstoffen wie Lignin, Flachs oder mithilfe von Algen aus Kohlendioxid herzustellen.
Eine ähnlich interessante Innovation ist Holzbeton, bei dem der Kies- und Sandanteil durch feingeschliffenes Holz ersetzt wird. Der Volumenanteil des Sägemehls beträgt bis zu 50%, so dass Holzbeton bedeutend leichter ist als herkömmlicher Beton und dennoch genauso fest und zudem feuerfest.
Die Menge an Schadholz ist in den letzten Jahren massiv angestiegen und bietet nun den Ausgangspunkt für die nächste innovative Idee. Bei dieser wird das Schwach- und Schadholz in Steinform gepresst, aufeinandergestapelt und mit Holzdübeln verbunden, so dass auf künstliche Verbindungsmittel verzichtet werden kann.
Hoch belastbare und gleichzeitig dünne Bodenelemente mit einer Dicke von nur 2 cm aus einer betonähnlichen Spezialmischung kommen ohne eine zusätzliche Stahlbewehrung aus und weisen eine Gewichtsreduktion von 70% auf. Die Ursache liegt in gewölbten und geometrisch geformten Platten.
Neu sind auch sog. Biokunststoffe. Einer davon übertrifft mit seiner Biegesteifigkeit und Zugfestigkeit selbst Stahl und Spinnenseide, die bisher als das stärkste biologische Material galt. Das ultrastarke Material besteht aus Zellulose-Nanofasern und ist biologisch abbaubar. Seine besonderen Eigenschaften erhält der Biokunststoff durch ein neues Produktionsverfahren, bei dem viele kleine Fasern zusammengepresst werden (hydrodynamische Fokussierung).
Die Bedeutung und der Einsatz natürlicher und nachwachsender Rohstoffe wird in den nächsten Jahren zunehmen. Neben Holz gehört hierzu auch Hanf, der nicht nur als Bewehrung sondern auch für hoch wärmedämmende Steine eingesetzt wird. Hanfsteine absorbieren nicht nur Feuchtigkeit, sondern auch Lärm. Eine ähnliche Entwicklung sind Wollziegel, die aus Lehm, Wolle und einem natürlichen Polymer aus Meeresalgen bestehen. Nach Angaben der Forscher sind diese Steine bis 40% kältebeständiger als konventionelle Ziegel.
Pilze sind Grundlage für die nächste Innovation. Hierbei wird das Myzel, die fadenförmigen Zellen des Pilzes, mithilfe eines speziellen Verfahrens zu einem Dämmstoff weiter verarbeitet. Nach Angaben des Herstellers ist der Bio-Dämmstoff nicht nur leicht, sondern auch biologisch abbaubar, feuerfest und gesundheitlich unbedenklich.
Eine ähnliche Entwicklung basiert auf expandierten Maiskörnern, besser bekannt unter dem Begriff Popcorn. Aufgrund der geringen Wärmeleitfähigkeit eignet sich das Material besonders gut als Dämmung. Der größte Vorteil der Spanplatten, die aus einem Drittel Popcorngranulat und zwei Drittel Holzspänen bestehen, ist das geringe Gewicht.
Aus dem Meer kommt möglicherweise der Ersatz für Steinwolle. Abgestorbenes Seegras eignet sich als Dachdämmung, als Kerndämmung im Mauerwerksquerschnitt oder in Form von Platten bei einem WDVS. Die Alternative ist aufgrund des hohen Salzgehaltes weniger leicht entflammbar als herkömmliche Dämmstoffe, hat vergleichbare Dämmwerte und ist resistent gegen Fäulnis und Schädlinge. Hinzu kommt, dass Fasern aus Seegras relativ viel Feuchte aufnehmen kann, ohne an Dämmwirkung und Massenvolumen zu verlieren.
Kartoffelschalen sind Ausgangsprodukt, einerseits für spezielle Bauplatten und andererseits als Zusatz in Beschichtungen und Belägen, um diesen nicht nur die nötige Konsistenz zu verleihen, sondern um das potenziell hochgradig krebserregende Bindemittel Formaldehyd zu ersetzen.
Diese Auflistung erhebt nicht den Anspruch auf Vollständigkeit. Weitere Ansätze wie z. B. Urban Mining mit Rezyklaten und dgl. würden den Rahmen an dieser Stelle sprengen. Die Baustoffindustrie braucht mehr Kreativität für nachhaltige und ganzheitliche Lösungen. Hierzu gehören neben Hightech-Materialien und smarten Baustoffen auch integrative Systeme und innovative Technologien. Besonders spannend ist die Entwicklung des „idealen“ Baustoffs, der auf ein KI-gestütztes Datenmodell die Bedürfnisse des Bauherren von morgen abdecken soll.
B wie Berufe der Zukunft
Die Transformation der Wirtschaft sowie permanente Veränderung von Kundenbedürfnissen und Angeboten wird zwangsläufig neue Berufe hervorbringen. Einige von ihnen gibt es bereits in ersten Tendenzen, andere wiederum werden in den nächsten Jahren erst entstehen. Nachfolgende Beispiele stehen symbolisch für zukünftige Berufe im Marketing und der Digitalisierung:
- Der Data Ethnographer arbeitet mit Echtzeitdaten an allen digitalen Touchpoints, um Erkenntnisse über Kunden zu gewinnen und Empfehlungen für Kampagnen, Kanäle und Formate für die gesamte Marketingorganisation abzugeben. Spezialisierte Datenethnographen werten nicht einfach „nur“ Zahlen aus. Ihre besondere Kompetenz besteht darin, in diesen Daten herauszulesen, wie Kunden mit Marken interagieren. Hierbei sind es oftmals nur Nuancen, um zu erkennen, wie Kunden „ticken“. Erfahrene Datenethnographen konzentrieren sich in einer zunehmenden Datenexplosion und Vielfalt unstrukturierter und unrelevanter Informationen auf das Wesentliche. Ihre Erkenntnisse sind Inspiration für neue Ideen und völlig neue Vermarktungsperspektiven und Marketingstrategien.
- Der Purpose Planner erarbeitet eine Mission und Vision und fokussiert sich hierbei auf den Beitrag des Unternehmens für die Gesellschaft allgemein sowie speziell für Kunden und potenzielle Mitarbeiter. In seiner Betrachtung spielt die Differenzierung aus Kundensicht eine deutlich größere Rolle. Die Aufgabe besteht aber nicht nur in der Konzeption und Erstellung, sondern der permanenten Weiterentwicklung und in der Funktion als Kommunikationskatalysator im gesamten Unternehmen. Purpose Planner identifizieren soziale Ursachen und fördern den Fluss von Informationen, Ideen, Inhalten und Einfluss mit internen und externen Stakeholdern. Ihre Rolle wird langfristig eine positive Einstellung in Bezug auf das Unternehmen, seiner Marke und die von ihm angebotenen Produkte und Dienstleistungen hervorrufen. Grundlage hierfür ist, dass immer mehr Kunden Geld, Zeit und Loyalität in Marken investieren, mit denen sie sich identifizieren können und die für die gleichen Werte stehen. Der Purpose Planner ist der Schlüssel zur Schaffung dieses Bewusstseins.
- Die Sicherstellung von Qualität, Authentizität und Konsistenz von Content in Richtung sämtlicher Streaming-Geschichten und Narrative über eine Vielzahl von Kanälen, einschließlich Filmen, TV-Serien, Podcasts, Chatbots und Videospielen ist die Aufgabe des Master Storytellers. KI wird bereits verwendet, um Werbung zu erstellen, Advertorials zu schreiben und Dialoge in Chatbots zu generieren. Der Master Storyteller stellt sicher, dass auf allen Formaten die gleichen (nicht dieselben) Inhalte kommuniziert werden.
- Loyalty Engineering ist ein neues Kompetenzangebot im Marketing und zielt darauf ab, Kunden in ihren unternehmerischen Erwartungen stärker abzuholen und hierbei in Einklang mit den Marken zu bringen. Das Aufgabengebiet des Loyalty Engineer besteht darin, Angebote zu kreieren, mit denen Kunden Geld verdienen können. Sie hören auf die Bedürfnisse von Kunden, identifizieren diese und setzen ihre Erkenntnisse z. B. in wertschöpfende Online-Tutorials, Events oder exklusive Kundenbindungsprogramme um. Dies schafft langfristige Loyalität zu Unternehmen, Marken, Produkten und Dienstleistungen.
- Die Aufgabe von Neuro-A/B-Testern besteht darin, bei kommerziellen Transaktionen zu helfen, Daten über Erlebnis- oder Sinneskampagnen zu sammeln. Marketingorganisationen können aus diesen ersten Eindrücken viel lernen und durch Überwachung und Auswertung von Gehirnsignalen (Opt-In) beurteilen, wie Kunden z. B. auf ein Produkt, eine Dienstleistung oder Angebote reagieren. Klassische Umfragen und Marktforschung in Fokusgruppen funktioniert immer seltener. Die Ergebnisse der Neurowissenschaften sind in der Beurteilung des Kundenverhaltens deutlich zuverlässiger. Sie nehmen die menschliche Fehlbarkeit aus der Gleichung und stellen objektive und reproduzierbare Daten aus der qualifizierten Hirnforschung zur Verfügung. Neuro-A/B-Tester analysieren die Gehirnaktivität von Kunden bei der Durchführung von experimentellen oder sensorischen Kampagnen (z. B. am Point of Sale). Durch die Arbeit der Hirnforscher kann die Customer Journey noch weiter optimiert, personalisiert und perfektioniert werden.
- Seit einigen Jahren werden personalisierte Beschaffungsdienste auf der Basis von KI und Algorithmen angeboten, die Kunden mit einer Vielzahl von Marken, Produkten und Angeboten durch Drittanbieter verbinden. Bots übernehmen die Arbeit (und das Denken der Kunden). So gibt es z. B. die Modemarke, die mithilfe von KI einmal im Monat eine personalisierte Schachtel mit Kleidung ausliefert, damit der Kunde sie zu Hause ausprobieren kann. Gleiches gibt es im Bereich von Lebensmitteln, Kosmetik usw. Promoter dieser „Aggregator-Marken“ sind Personal-Shopper-Bots. Der Interbrand Marketer hilft hierbei die Geschäftsbeziehung zu den aufkeimenden Influencer Kanälen aufzubauen und zu pflegen, einschließlich Virtual-Shopper-Plattformen, Virtual Concierges, In-Box-Lifestyle-Plattformen und Content-Streamer. Der Interbrand-Marketer verfügt über umfangreiche Erfahrung im B2B- und Influencer-Marketing.
- Die Aufgabe des Mood & Empathy Managers besteht in der Fähigkeit, dass Marketingaktivitäten mit den Absichten, Motivationen und Emotionen der Kunden in Einklang stehen. Diese sollten mit den Bedürfnissen der Kunden übereinstimmen und eine optimale Kombination aus Emotionen und empathischer Reaktion von Kunden hervorrufen. Er ermittelt somit, wie sich ein Kunde instinktiv zu Unternehmen, Marken und Produkten fühlt und wird unverzichtbarer Bestandteil der modernen Markenführung. Im Ergebnis entsteht aus aktiven Bestandskunden eine langfristige Markentreue und -loyalität.
- Der Personal Feedback & Appraisal Designer entwirft und testet KI-Mechanismen, um das Feedback aus Hunderttausenden oder Millionen von Kundeninteraktionen aus der Customer Journey zu sammeln, zu selektieren und automatisch mit personalisierten Antworten und Empfehlungen zurück zu senden. Die besondere Herausforderung besteht darin, dass die hyperpersonalisierten und kontextbezogenen Erfahrungen während der gesamten Customer Journey automatisiert werden. Im Ergebnis haben zufriedene und somit treue und loyale Kunden das Gefühl, dass ihre Marke jeden Wunsch und jedes Bedürfnis wahrnimmt und im Sinne einer Customer Centricity und Brand Experience umsetzt.
- Der Simulation Assistant ist Teammitglied im Simulationsmarketing und arbeitet dem Simulationsplaner und Branchenstrategen zu. Seine Aufgabe besteht darin, prädiktive Informationen zu sammeln und zu verknüpfen, um zukünftige Kundenszenarien für die Angebote zu modellieren. Das Leistungsportfolio ist hierbei sehr breit gefächert: von einfachen Infografiken und komplexen virtuellen Simulationen über Neuro-A/B-Tests bis hin zum virtuellen Klon. Außerdem verwaltet der Simulationsassistent das Prototyping und ist für Test und Rollout von Simulationserfahrungen verantwortlich. Hierbei greift er auf Predictive Intelligence, Szenarioplanung und VR-Tools zurück. In einer simulierten Welt geht es darum, die Vorhersage-Theorie zu einer greifbaren Erfahrung zu machen.
- Der Sixth Sense Analyst ist ein Trendscout. Seine Aufgabe sind Trends rechtzeitig zu erkennen und für Marketing- und Verkaufskampagnen aufzubereiten. Seine besondere Stärke liegt darin, seinen „sechsten Sinn“ mit KI-Algorithmen und schnellen, iterativen Markteinführungstools zu kombinieren, um das Markenerlebnis „von morgen“ zu definieren. Die Analyse des projizierten Verhaltens durch Bedarfs- und Zielgruppen wird im Marketing der Zukunft ein wesentlicher Eckpfeiler.
- Der Subscription Strategist bringt die Kompetenzen eines Media Managers, kreativen Business Analyst und eines Produktmanagers mit, um komplexe, interaktive Ökosysteme zu verknüpfen und den Abonnementprozess zu vereinfachen, Cross-Selling- oder Upselling-Möglichkeiten zu identifizieren und diese mit den Angeboten von Drittanbietern zu vermitteln.
- Die Aufgabe des Haptic Planners besteht darin, die Wirkung von Werbekampagnen über eine Reihe von haptischen Effekten zu maximieren, damit sich diese instinktiv richtig anfühlen. Mit neuen Materialien und der Möglichkeit, ansprechende Texturen zu programmieren, ergeben sich vielfältige Möglichkeiten, haptische Oberflächen zu erzeugen. Diese sollen durch Berührung Neugierde und weiterführendes Interesse erzeugen. Der Haptic Planner arbeitet somit an der Schnittstelle zwischen Oberflächenhaptik und Beschaffung von Texturen, Materialien und Vibrationen.
- Der Machine Personality Designer verleiht digitalen Produkten eine einzigartige Stimme und einen unverwechselbaren Charakter. Diese dienen dazu, dass Kunden und Maschinen interagieren und hilft, KI-Anwendungen ein „authentisches Aussehen“, ein „menschliches Gefühl“ oder einen „emphatischen Charakter“ zu verleihen. Im Ergebnis soll aus einer anonymen Transaktion ein digitaler Touchpoint entstehen, der dem Kunden das Gefühl gibt, gut betreut worden zu sein und „gerne wieder zu kommen“. Der Machine Personality Designer muss ein intuitives Verständnis und eine Leidenschaft für Menschen, Kultur, Ethnographie, Soziologie und Branding mitbringen – und ein multidisziplinäres Team führen können.
- Der In-World-Marketing Architect platziert Product-Placement in virtuellen Räumen. Hierbei kommt es zu einer Verschmelzung zwischen virtueller Realität, Augmented Reality, Videospielen, Filmen und 3D Animationen. Content dieser Art wird in den nächsten 5 Jahren mehr als 90% der visuellen Informationsaufnahme ausmachen. Der In-World-Marketing-Architekt wird somit zum Experten der virtuellen Customer Journey. Er versteht die Motivation, Erwartung, Ziele und Reise der Bedarfs- und Zielgruppen im virtuellen Raum.
- Mikrointeraktionen finden überall und jederzeit statt. Der Micro-interaction Marketing Specialist analysiert diese Touchpoints und identifiziert Ansätze, um Kunden emotional an zu triggern und Entscheidungen oder Wahrnehmungen zu beeinflussen. Hierzu werden visuelle und sensorische Interaktionen verwendet.
- Der Head of Bot Creative ist für die Steuerung von Bots verantwortlich, die im kreativen Marketing zunehmend eingesetzt werden und höchst personalisierte Markenbotschaften mit hoher Relevanz individuell an Kunden verschicken. Hierbei muss sichergestellt werden, dass die Bots eine markenspezifische und authentische Botschaft verschicken, die gleichzeitig eine hohe Relevanz für den Kunden beinhalten. Der Head of Bot Creative bekommt im aufstrebenden Bereich des RIQ (Robotic Intelligence Quotient) eine immer größere Bedeutung. Er wird der entscheidende Filter in einer Welt der automatisch generierten kreativen Arbeit.
- In der vernetzten Welt der intelligenten Dinge sind es nicht mehr nur Menschen, die ihren Freunden Empfehlungen geben, sondern zunehmend eine Kombination aus Menschen und Algorithmen, die von KI und Machine learning angetrieben werden. Das Rennen um die Platzierung in Suchmaschinen von Maschine zu Maschine ist längst eröffnet (Business to Machine). Der Object Persuasion Manager versteht es, eine Logic Learning Machine (LLM) zu entwickeln. Hierbei „überzeugt“ ein algorithmisch-persönlicher Webassistent die Suchmaschinen, damit Marken, Produkte und Dienstleistungen im oberen Ranking auftauchen.
- Der Machine-/People-Ethics Manager stellt sicher, dass in Zeiten zunehmender KI und intelligenter Maschinen die ethischen Grundwerte nicht ignoriert werden.
- Der Customer Wellbeing Specialist ist die Antwort auf den Megatrend Gesundheit, Fitness und bewusste Ernährung und soll Menschen dabei helfen, ihr Wohlbefinden bei der Arbeit, zu Hause, im Urlaub oder an anderen digitalen Touchpoints der Markeninteraktion zu verbessern. Seine Aufgabe besteht darin, personalisierte Push- & Pull-Mechanismen einzusetzen, um das körperliche und geistige Wohlbefinden der Kunden zu verbessern – immer unter Berücksichtigung der sensiblen Thematik Datenethik.
- Der Science Liaison/Bio-Marketing Specialist kombiniert Wissenschaft mit Marketing und analysiert biometrische Daten. Wenn Kunden im Smart Home oder mit ihren Wearables interagieren, bietet sich die Möglichkeit einer personalisierten Markenkommunikation an. Hierzu verwendet der Bio-Marketing-Spezialist ausgewählte biometrischen Kundenmarker, um Lifestyle-Produkte zu kreieren und weiter zu entwickeln.
- Die Kombination aus relevanten Insights mit kreativer Inspiration führt zu neuen Marketing- und Vertriebskampagnen, bei denen Empathie und Expertise verknüpft werden. Neu daran ist die größtmögliche Agilität bei sich verändernden Marktbedingungen. Ein idealtypischer Creative Planner bringt Empathie und Neugier, Logik und Intuition, Visions- und Imaginationskraft, Kommunikationsvermögen und diplomatisches Geschick mit.
B wie Big Data
Big Data ist ein unspezifischer Sammelbegriff für große Datenmengen, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auswerten zu können. Außerdem steht der Begriff für den Prozess der Datafizierung und in einigen Fällen wird er synonym für digitale Technologien verwendet. Das „Big“ steht für acht Dimensionen
- volume (Umfang, Datenvolumen)
- velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden)
- variety (Bandbreite der Datentypen und -quellen)
- veracity (Echtheit von Daten)
- value (unternehmerischen Mehrwert) und
- validity (Sicherstellung der Datenqualität)
- variability (Variabilität durch stetige Fluktuationen und großer Varianz)
- veracity (Richtigkeit in Bezug auf Datenqualität).
Big Data steht nicht nur für Quantität und Qualität von Daten. Entscheidend ist, was Unternehmen daraus machen. Die Erfassung, Analyse und Verarbeitung der Daten sollte dazu dienen, entweder Kosten zu senken oder Zeit zu sparen, neue Produkte und optimierte Angebote zu entwickeln oder fundierte Entscheidungen im Geschäftsmodell zu treffen. Deshalb liegt der Mehrwert nicht in den Daten an sich, sondern in der leistungsstarken Analyse.
Neben der Bedeutung als Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen steht Big Data auch als Buzzword für andere Bedeutungen wie z. B. der zunehmenden Überwachung (z. B. der Vorratsdatenspeicherung), zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing), der Verletzung von Intimsphäre und Persönlichkeitsrechten von Kunden, Automatisierung von Produktionsprozessen (Industrie 4.0, IoT), intransparente Automatisierung von Entscheidungsprozessen oder auch datengetriebenes Onlinemarketing.
B wie Big 5 (der Persönlichkeitsmerkmale)
Die Big Five der Persönlichkeitsmerkmale sind der Grundstein für das so genannte OCEAN-Modell (nach den Anfangsbuchstaben von Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism). Mit diesem konnten die amerikanischen Psychologen Paul Costa und Robert McCrae nachweisen, dass die Charaktereigenschaften eines Menschen mit nur fünf Adjektiven beschrieben werden können – und dies auf der ganzen Welt. Anhand dieser Big Five Persönlichkeitsmerkmale lässt sich der individuelle Charakter eines Menschen in einem Profil zusammenfassen. Ursprünglich geht die Theorie hinter den Big Five auf die 1930-er Jahre zurück. Bis zu dem Zeitpunkt beschränkte sich die Persönlichkeitspsychologie auf eine Typologie von Menschen. Die Big Five Persönlichkeitsmerkmale dagegen beschreiben fünf grundlegende Charaktermerkmale, die jeder Mensch in unterschiedlich starker Ausprägung hat. Hierzu wurden sämtliche Begriffe, die im Zusammenhang mit der menschlichen Persönlichkeit stehen, zusammengetragen und in mehreren Phasen verdichtet. Damals ging man davon aus, dass sich die Persönlichkeit in der Wortwahl wiederspiegelt. Schlussendlich blieben aus mehr als 18000 Wörtern heterogener Absender nur fünf grundlegende Merkmale übrig, die für alle Menschen (mehr oder weniger) gelten. Die Big Five Persönlichkeitsmerkmale sind in der heutigen Persönlichkeitspsychologie eines der bekanntesten Modelle, um den menschlichen Charakter zu beschreiben. Dem Big Five Modell zufolge setzt sich der menschliche Charakter aus fünf weitgehend unabhängigen und kulturübergreifenden Eigenschaften (Dimensionen) zusammen:
- Offenheit für Erfahrungen (Aufgeschlossenheit in allen Lebenslagen sowie für das Normen- und Wertesystem)
- Gewissenhaftigkeit (Kompetenz, Ordentlichkeit, Perfektionismus, Pflichtbewusstsein, Leistungsstreben, Selbstdisziplin und Besonnenheit)
- Extraversion (Herzlichkeit, Geselligkeit, Extravertiertheit, Durchsetzungsfähigkeit, Aktivität, Frohsinn und Erlebnishunger)
- Verträglichkeit (Vertrauen, Rücksichtnahme, Empathie, Gutherzigkeit, Bescheidenheit, Altruismus, Freimütigkeit und Kooperationsbereitschaft)
- Neurotizismus (Verletzlichkeit, emotionale Labilität, Ängstlichkeit, Depression und Impulsivität)
Die Persönlichkeitspsychologie hat die Existenz dieser fünf Eigenschaften über alle Kulturkreise hinweg in über 3000 wissenschaftlichen Studien belegt. Sie gelten international als das universelle Standardmodell in der Persönlichkeitsforschung und der Big Five Persönlichkeitstest gehört bis heute zu den am häufigsten durchgeführten Tests, sowohl in der Forschung als auch in der Diagnostik. Dabei ist jedes der Big Five Persönlichkeitsmerkmale als Kontinuum zu verstehen: ein Mensch ist nicht entweder durchsetzungsstark, gewissenhaft, bescheiden oder ängstlich oder eben nicht, sondern befindet sich irgendwo auf einer Skala mit einer niedrigen, mittleren oder hohen Ausprägung. Die Forschung geht davon aus, dass einzelne Dimensionen in der Bevölkerung normalverteilt sind und somit die meisten Menschen eine Ausprägung im mittleren Bereich aufweisen. Sehr hohe oder sehr niedrige Werte sind eher selten. Eine hohe oder niedrige Ausprägung bedeutet, dass sich die Werte der Person signifikant vom Durchschnitt (Normwert) unterscheiden. Unterschiede in den Ausprägungen der Big Five lassen sich übrigens nur etwa zur Hälfte bis maximal Zweidrittel durch genetische Einflüsse erklären, der Rest wird durch das Alter und die Umfeldfaktoren beeinflusst. Im Kindes- und Jugendalter schwanken die Werte stark und bleiben erst nach dem 30. Lebensjahr weitgehend konstant. Dies ändert sich wieder ab einem Lebensalter von über 70 Jahre.
Alternativen zum Big Five Modell sind z. B. das bekannte →DISG-Modell, das →Hexagon-Modell oder das Enneagramm. All diesen Modellen ist gemein, dass sie andere Dimensionen annehmen als die Big-Five-Theorie oder diese um andere Faktoren ergänzen. So konzentriert sich das DISG-Modell auf vier vorherrschende Verhaltenstypen (anstatt fünf Charaktereigenschaften) und ist das weltweit führende Tool zur Optimierung der Kommunikation und zwischenmenschlichen Beziehungen (im Vergleich zum weltweit bekanntesten Persönlichkeitstest.
B wie Big Tech
Der Begriff Big Tech ist ein Synonym für Internet- und/oder Technologie-Giganten und bezeichnet die größten IT-Unternehmen der Welt. Da der Begriff allerdings nicht alle großen IT-Unternehmen umfasst, sondern nur die fünf größten: Google (Alphabet), Amazon, Facebook (Meta Platforms), Apple und Microsoft, werden diese auch Big Five oder (als Akronym) GAFAM bezeichnet. Auch das Akronym GAFA für die Big Four ohne Microsoft ist gebräuchlich. Alle fünf Unternehmen stammen aus den USA und haben in den vergangenen Jahr(zehnt)en nicht nur ein rasantes Wachstum hingelegt, sondern in ihren jeweiligen Segmenten eine monopolähnliche Stellung. Gemessen an ihrer Marktkapitalisierung stellen sie nicht nur die fünf wertvollsten Konzerne der USA dar, sondern zusammen mit Saudi Aramco die sechs größten Unternehmen der Welt.
Der Zusatz „Big“ wird in den USA gerne für Branchen verwendet, die so groß und mächtig geworden sind, dass sie politischen Druck auf die Gesellschaft ausüben kann (z. B. um Steuerzahlungen zu „optimieren“). Denn neben Big Tech gibt es auch Big Oil, Big Tobacco oder Big Pharma. Diese Unternehmen werden beschuldigt, Wettbewerb zu unterdrücken oder zu manipulieren, Steuern zu vermeiden, den Datenschutz zu unterlaufen und die Privatsphäre nicht zu respektieren. Kritiker gehen soweit, ihnen eine Unterwanderung der Demokratie zu unterstellen. Hierbei ist nicht nur die Größe und das Wachstum der digitalen Quasi-Monopole beängstigend, sondern das unvergleichliche Tempo und die Geschwindigkeit, mit der diese Unternehmen Daten sammeln und diese in Vorhersage-Algorithmen umwandeln. Durch ihre Marktdominanz und allwissende, undurchsichtige Vernetzung in alle Bereiche der Gesellschaft kontrollieren, manipulieren und diktieren die Big Five einen Großteil der Aufmerksamkeit und Kommunikation, Medien sowie Werbung und beeinflussen Verhaltensweisen von Milliarden von Menschen. Die Dominanz der Tech Five ist erdrückend. Sie beherrschen die wichtigsten Zukunftsmärkte mit Marktanteilen von teils mehr als 90 Prozent. Amazon kontrolliert zwei Drittel des Online-Buchhandels, Google 90 Prozent des Suchmaschinenmarktes und Facebook 75 Prozent der mobilen Kommunikation. Und die Kartellbehörden kommen längst nicht mehr hinterher, alle Verstöße zu ahnden und konzentrieren sich nur noch auf die Beschwerden, die politischen Druck auslösen. Apple ist als erstes amerikanisches Unternehmen an der Börse mehr als eine Billion Dollar wert. Das ist eine Zahl mit zwölf Nullen und deutlich mehr, als die zehn größten deutschen Dax-Unternehmen zusammen wert sind. Allein Apple verfügt über 260 Milliarden Dollar. Es gibt kein (!) Unternehmen auf der Welt, das Apple sich nicht einverleiben könnte. Der iPhone-Hersteller führt damit eine Handvoll Technologie-Firmen an, deren Produkte aus dem täglichen Leben nicht mehr wegzudenken sind. Der Beliebtheit der Big Five schadet dies nicht.
B wie BIM (Building Information Modelling)
BIM ist die Abkürzung für Building Information Modelling und beschreibt eine ganzheitliche digitale Methode zur Planung und Realisierung von Bauvorhaben. Im Gegensatz zur Vergangenheit und in den meisten Fällen auch noch in der Gegenwart, in der sämtliche Planungsunterlagen wie Produktdokumentationen, Kalkulationen und Berechnungen, Zeichnungen und Ausschreibungen usw. manuell, separat und individuell erstellt und analog archiviert werden, wird im Kontext von „BIM“ durch alle an einem Bauvorhaben Beteiligten ein 3D Model genutzt und darin die Prozesse digital abgebildet. Durch Cloudlösungen können alle Beteiligten jederzeit und von überall auf das BIM-Model zugreifen. Dies bedeutet, dass Statiker, Architekten, Ingenieure, Handwerker usw. alle im selben Model arbeiten. Lieferanten erhalten einen begrenzten Zugang, um Produktinformationen zur Verfügung zu stellen. BIM geht weit über die reine Erstellung von Zeichnungen hinaus und umfasst heute schon die Überführung in fotorealistische 3D Modelle, ein Ressourcen- und Risikomanagement, automatisierte Berechnungen z. B. über den U-Wert und Simulationen wie z. B. über Wartungsintervalle oder Renovierungszyklen. Dadurch wird nicht nur sichergestellt, dass spezifische Leistungen und Produktinformationen der jeweiligen Gewerke immer aktuell sind, sondern auch mangelnde Abstimmung zwischen den Beteiligten und Fehlplanungen werden vermieden. Eine hohe Transparenz in der Bau- und Nutzungsphase soll Zeit und Kosten sparen und Daten für nachgelagerten Maßnahmen zugänglich machen. BIM ist eine operative Methodik und kein Werkzeug, wie es oft hingestellt wird. Es muss als Digitalisierungsprozess eines Gebäudes identifiziert werden, der ein digitales Informationsmodell verwendet und alle Informationen in Bezug auf den gesamten Lebenszyklus enthält wie z. B. Projekt, Bau, Management, Wartung, Entsorgung – und nicht nur in der Planungsphase. Für die Kommunikation zwischen diesen Daten ist das standardisierte Dateiformat „Industry Foundation Classes“ (→IFC-Format) zuständig. Es bietet einen Austausch zwischen den Fachprogrammen verschiedener Gewerke, so dass diese während der Planung, in der Bau- und bei Bedarf in der späteren Nutzungsphase Daten austauschen können.
B wie BIM-Autoren-Software
Softwareanwendungen für →BIM (Building Information Modeling) werden auch als BIM-Autoren-Software bezeichnet und nehmen im BIM-Prozess eine Schlüsselrolle ein. Mit ihnen werden digitale Bauwerksmodelle in der Regel mit parametrisierten Modellelementen in 3D konstruiert. BIM-Autoren-Software gibt es spezialisiert auf eine bestimmte oder generalisiert auf mehrere spezifische Fachplanungsdisziplinen. Folgende Funktionen sollte eine BIM-Autoren-Software beinhalten:
- Erstellung und Visualisierung von geometrisch komplexen Bauwerken, inklusive außergewöhnlicher Entwurfsvarianten und Designs
- Verwaltung von alphanumerischen Informationen in Verbindung mit geometrischen Modellelementen inklusive der Möglichkeit, projekt- oder bürospezifische Parameter und Kennziffer definieren zu können
- Erzeugung von Bauteillisten und -mengen sowie -massen
- Zugriff durch mehrere Nutzer und/oder von verschiedenen Arbeitsplätzen inklusive der Einrichtung von Arbeitsbereichen und einem Berechtigungskonzept für definierte Model Element Autoren
- →IFC als Import- und/oder Exportformat mit Funktionen, die IFC-Version und für den Export verwendete Model View Definition konfigurieren zu können
- Import- und/oder Exportfunktionen für CAD-Dateien inklusive dem Referenzieren digital vorliegender Bestandspläne und/oder dem Verknüpfen von 2D-CAD-Details mit dem BIM-Modell
- Unterstützung einer modellbasierten Kommunikation
- Erzeugung und Verwaltung von Plänen mit Grundrissen, Ansichten oder Schnitten direkt aus dem 3D-Modell
- Integrierte Bibliothek und Chronologie generischer BIM-Objekte
Eine offene Schnittstelle, um die Software nach eigenen Bedürfnissen anpassen zu können oder um Anpassungen von anderen Entwicklern nutzen zu können, wäre hilfreich.
B wie BIM-Modell
Während →BIM (Building Information Modeling) die Methode beschreibt, ist das BIM-Modell das zugrundeliegende Datenmodell, mit dem die digitale Gebäudemodellierung strukturiert wird. Dieses umfasst neben geometrischen auch alphanumerische Daten und soll das spätere Gebäude als „digitalen Zwilling“ abbilden. Hierfür werden spezialisierte Softwaresysteme benötigt, die weit über den bisherigen Funktionsumfang herkömmlicher CAD-Systeme hinausgehen. Diese Software wird auch als BIM Autoren Software bezeichnet, die mit ihnen arbeitenden Architekten, Fachplaner, technische Zeichner usw. als BIM Software Autoren. Diese besitzen die Berechtigung zum Erstellen, Ändern und Löschen von Modellelementen, weshalb jedes Element eines BIM-Modells mit dem zuständigen Autor (im englischen auch als Model Element Author bezeichnet) gekennzeichnet werden sollte. In der Regel weist ein BIM-Projekt mehrere BIM-Modelle auf, die je nach Fachmodelle, Gebäudeteile, Geschosse oder Bauabschnitte aufgeteilt werden. Alle BIM-Modelle eines Projekts werden in einem Koordinationsmodell zusammengeführt. Damit zwischen diesen Teil- bzw. Fachmodellen ein gemeinsamer Bezug hergestellt werden kann, bildet das Architekturmodell das Referenzmodell, in der die BIM Autoren Software verknüpft wird.
B wie Bionik
Der Begriff Bionik (auch Biomimetik) setzt sich zusammen aus Biologie und Technik und beschreibt das kreative Umsetzen von Anregungen bzw. Übertragen von Phänomenen aus der Biologie auf die Technik. Bioniker arbeiten hierbei interdisziplinär zusammen mit Biologen und Naturwissenschaftlern sowie mit Ingenieuren, Architekten, Materialforschern und Designern. Bionik als noch sehr junge Wissenschaftsdisziplin verfolgt das Ziel, durch Abstraktion, Übertragung und Anwendung von Erkenntnissen, die an biologischen Vorbildern gewonnen werden, systematisch technische Fragestellungen zu lösen. Biologische Vorbilder im Sinne dieser Definition sind biologische Prozesse, Materialien, Strukturen, Funktionen, Organismen und Erfolgsprinzipien sowie der Prozess der Evolution. Das Ziel ist ein von der Natur getrenntes technisches Ergebnis, wodurch sich die Bionik von Wissenschaften, die biologische Prozesse nutzen und erweitern, wie z. B. die Bioinformatik, Biophysik und Biochemie unterscheidet.
Bioniker greifen auf das große Reservoir an biologischen Strukturen, Prozessen und oft überraschenden funktionalen Lösungen zurück, die in Millionen von Jahren evolutionärer Entwicklung und Biodiversität erprobt und durch die Natur selbst optimiert wurden. Sie liefern Ideen für nachhaltige und vor allem oft unerwartete innovative Anwendungen, die Sprunginnovationen möglich machen. In der Bionik wird hierbei unterschieden zwischen einer reinen Kopie natürlicher Vorbilder oder ein durch die Natur angeregtes „Neuerfinden“.
Die Natur ist der erfolgreichste Innovator aller Zeiten und die Bionik überzeugt mittlerweile als etablierte Innovationsmethode. Dies belegen Produktinnovationen auch in der Baubranche wie z. B. superhydrophobe Oberflächen für Unbenetzbarkeit und Selbstreinigung (Lotus-Effekt) bei Fassadenbeschichtungen oder Dachziegel, Nanostrukturen für klebstofffreies Haften (Gecko) bei Klebefolien oder auch Strukturoptimierung von Bauteilen (CAO und SKO durch Wuchsformen von Bäumen oder Knochen).
Übrigens: die Entdeckung der Schwarmintelligenz geht u. a. auf Verhaltensweisen von Insekten zurück und wird auch als Ameisenalgorithmus bezeichnet.
B wie Bisoziation
Der Begriff Bisoziation wurde vom ungarisch-britischen Schriftsteller Arthur Koestler in Anlehnung an das Wort Assoziation eingeführt. Während bei der Assoziation Dinge auf einer Ebene verknüpft werden, verknüpft die Bisoziation Dinge auf zwei unterschiedlichen Ebenen. Diese Kreativitätstechnik dient dazu, geistige Routinen zu durchbrechen und dadurch kreative, ungewohnte und innovative Lösungsansätze zu finden. Die Ergebnisse dieser Methode können zu drei wesentlichen Entdeckungen führen: zu Erkenntnis und Entdeckung (überraschende und neue Einsichten), zum Verständnis (von Zusammenhängen) und in manchen Fällen auch zu Humor, denn aus dem Zusammentreffen nicht zusammen gehörender Dinge kann auch Komik entstehen. Das Besondere an der Bisoziation besteht darin, dass zwei vorher nicht verbundene Denk-Dimensionen zusammengeführt werden, um neue Ideen zu entwickeln. Deshalb wird diese Methode neben der Ideenfindung und als Kreativitätstechnik gerne auch im Rahmen von Problem- oder Konfliktlösungen eingesetzt.
B wie Blockchain
Eine Blockchain (englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen in einzelnen Blöcken. Neue Blöcke werden nach einem Konsensverfahren erstellt und mittels kryptographischer Verfahren an eine bestehende Kette angehängt. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Die Blockchain-Technologie eignet sich ideal, um Informationen in der Wirtschaft auszutauschen. Sie liefert sofortige, gemeinsam genutzte und vollständig transparente Informationen, die in einem nicht veränderbaren Ledger gespeichert sind, auf das nur berechtigte Netzwerkmitglieder zugreifen können. Ein Blockchain-Netzwerk kann Aufträge, Zahlungen, Konten, Produktion und vieles mehr verfolgen. Da alle Nutzer eine einheitliche und transparente Sicht auf die Informationen haben, sind sämtliche Details einer Transaktion von Anfang bis Ende einsehbar. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen bestätigen. Infolgedessen ist es unmöglich, Existenz oder Inhalte der früheren Transaktionen nachträglich zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu ändern. Andere Teilnehmer der Transaktionen erkennen eine Manipulation der Blockchain an der Inkonsistenz der Blöcke. Dies schafft nicht nur Transparenz, sondern auch eine vertrauenswürdige Zusammenarbeit zwischen verschiedenen Organisationen und erhöht die Effizienz deutlich. Denn bisher war für bestimmte Transaktionen immer die Einbindung einer zentralen Instanz notwendig, z. B. eines PKI-Systems, Notars usw. Alternativ müsste dies ein Treuhänder übernehmen, der die Zusammenarbeit und Eigentumsübertragung zwischen den verschiedenen Organisationen verwaltet und verifiziert. Dies verursacht Kosten und verlangsamt die Prozesse. Da die Blockchain-Technologie dies automatisiert übernimmt, werden die Prozesse deutlich schneller und effektiver. Doppelte Aufzeichnungen und Validierungen durch Dritte entfallen. Außerdem sind die herkömmlichen Systeme anfällig für Betrug und Cyberattacken. Die Blockchain-Technologie hat den Vorteil, dass die Daten als Transaktionen in den einzelnen Blöcken manipulationssicher gespeichert werden können. Dies bedeutet, dass die Teilnehmer der Blockchain in der Lage sind, die Echtheit, den Ursprung und die Unversehrtheit der gespeicherten Daten (Transaktionen) zu überprüfen. Deshalb wird die Blockchain auch als „Internet der Werte“ (Internet of values) bezeichnet und legt die technische Basis für Kryptowährungen wie z. B. Bitcoin.
Man kann die Eigenschaften einer Blockchain wie folgt zusammenfassen:
- Verkettungsprinzip: Eine Blockchain ist eine Verkettung von Datenblöcken, die über die Zeit weiter fortgeschrieben wird
- Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt
- Konsensmechanismus: Es wird sichergestellt, dass bei allen Beteiligten eine identische Kette entsteht. Neue Blöcke müssen vorher miteinander abgestimmt werden (durch Validatoren, die bei Bitcoin „Miner“ genannt werden). Das Einfügen eines vorgeschlagenen Blocks in die Kette erfolgt durch ein Konsensprotokoll (algorithmisches Verfahren zur Abstimmung)
- Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich verändert werden kann. Die Verkettung der Blöcke ist unveränderbar, fälschungs- und manipulationssicher
- Transparenz und Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar und können nach Bedarf individuell verschlüsselt werden, so dass Blockchains das Berechtigungskonzept je nach Vertraulichkeitsgrad flexible anpassen kann
- Eineindeutigkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmer bestimmte Daten eineindeutig hinterlegt haben
- Distributed-Ledger-Technologie: Alle Beteiligten haben Zugriff auf das verteilte Register und seine unveränderlichen Transaktionsaufzeichnungen. Diese werden nur einmal aufgezeichnet, wodurch der für herkömmliche Geschäftsnetzwerke typische Mehrfachaufwand entfällt
- Intelligente Verträge: Um Transaktionen zu beschleunigen, wird ein Satz von Regeln – ein „Smart Contracts“ – auf der Blockchain gespeichert und automatisch ausgeführt. Intelligente Verträge können Bedingungen z. B. für die Übertragung von Unternehmensanleihen festlegen oder für die Zahlung von Reiseversicherungen und vieles mehr.
B wie Blue-Ocean-Methodik
Die Blue-Ocean-Methodik basiert auf der Implementierung der Value Innovation. Zentrales Instrument hierbei ist die Wertkurve, mit der sich das relative Leistungsprofil eines Unternehmens innerhalb einer Branche darstellen und analysieren lässt. Die horizontale Achse wird über die kritischen Erfolgsfaktoren bestimmt, die in der Regel der Marktforschung oder Unternehmensstrategie entnommen wird. Die vertikale Achse beschreibt das Leistungsniveau innerhalb einer Branche (Skala von niedrig bis hoch). Die zu untersuchende Einheit wird auf der Wertkurve eingeordnet. Erhält diese Einheit einen hohen Wert für einen Faktor bedeutet dies eine bessere Leistung im Vergleich zu Wettbewerbern (und umgekehrt). Zusätzlich werden die Wertkurven wichtiger Wettbewerber oder relevanter strategischer Gruppen nach dem gleichen Schema ermittelt. Werden mehrere Wertkurven für unterschiedliche Unternehmen in einem Chart abgebildet, spricht man auch vom so genannten Strategy Canvas.
Anschließend wird ein andersartiges Leistungsangebot konstruiert eine neue Wertkurve entwickelt, mit dem ein echter Kundennutzen und Mehrwert geboten wird. In der →Blue-Ocean-Strategie werden hierfür vier Maßnahmen („Four Actions Framework“) definiert, um Kernelemente zu verändern bzw. neu zu definieren und somit Wertkurven nachhaltig zu verändern:
- Eliminierung: Welche Faktoren können weggelassen werden?
- Reduzierung: Was kann radikal gekürzt werden?
- Steigerung: Welche Elemente des Produkts müssen über den Branchenstandard gehoben werden?
- Kreierung: Welche Komponenten eines Produkts müssen neu erfunden werden?
Durch die Veränderung und neue Definition der Kernelemente einer Wertekurve sollen neue Geschäftsmodelle entwickelt werden. In der Blue-Ocean-Strategie werden hierfür sechs Lösungen („Six Paths Framework“) empfohlen:
- Die Perspektive systematisch auf weitere Branchen richten.
- Übergreifende Angebote in einer Branche definieren.
- Neue Zielgruppen in der Käuferkette finden.
- Komplementäre Produkte und Dienstleistungen zu einer Gesamtlösung zusammenfassen.
- Funktionale oder emotionale Ausrichtung der Branche überprüfen.
- Veränderungen im Zeitablauf erkennen.
Für eine erfolgreiche Umsetzung dürfen zwei Aspekte nicht vernachlässigt werden. Zum einen müssen organisatorische Hürden überwunden (Tipping-Point-Management) und zum anderen muss die Umsetzung in die Strategie eingebunden werden.
B wie Blue-Ocean-Strategie
Die Blue-Ocean-Strategie stellt eine Methode im strategischen Management dar. Im Kern geht es darum, neue und innovative Märkte zu erkennen oder zu entwickeln, in denen es (noch) keinen Wettbewerb gibt, um diese mit innovativen Ideen und rentablen Geschäftsmodellen zu besetzen. Die von den Professoren W. Chan Kim und Renée Mauborgne entwickelte Strategie wurde 2004 vorgestellt und zunächst als Value Innovation bezeichnet. Der Grundgedanke der Blue-Ocean-Strategie besteht in der Nutzen- und Mehrwertbasierten Innovation in einem neuen Marktsegment, in dem der bisherige Wettbewerb irrelevant und Kunden ein unvergleichbares Angebot unterbreitet wird. Die Blue-Ocean-Strategie zielt deshalb nicht darauf ab, sich vom Wettbewerb zu differenzieren wie dies z. B. in den herkömmlichen Wettbewerbsstrategien z. B. nach Michael Porter der Fall ist, sondern Nachfrage zu generieren und/oder Bedürfnisse zu schaffen, die es so bisher nicht gegeben hat. In diesen neuen Märkten ohne etablierten Wettbewerb werden neben der Erzielung einer deutlich höheren Umsatzrentabilität in der Regel auch neue Marktmechanismen und Wettbewerbsregeln etabliert. Erfolgreiche Unternehmen investieren ca. 15% ihrer Ressourcen in inkrementelle bis disruptive Innovationen in neue Märkte. Im Vergleich dazu wenden weniger erfolgreiche Unternehmen über 80% ihrer F&E-Ressourcen auf, um bestehende Angebote und Märkte zu bedienen und zu optimieren sowie auf Aktionen des Wettbewerbs zu reagieren (Quelle: Harvard Business Manager, Heft 3/2019).
„Blue Oceans“ stehen in dem Zusammenhang für „sauber“, „unberührt“ und „friedlich“ und sollen ein Marktumfeld mit keinem (oder sehr wenig) Wettbewerb beschreiben. „Red Oceans“ dagegen stehen symbolisch für blutige Kämpfe unter Raubfischen und beschreiben Auseinandersetzungen in gesättigten Märkten durch bestehende Wettbewerber, in denen harte Preiskämpfe geführt werden, um das eigene Überleben zu sichern. Infolgedessen geht es bei der Blue-Ocean-Strategie darum, sich nicht am Wettbewerb orientieren, sondern eigene innovative Wege zu suchen, zu finden und zu entwickeln, um einen Blauen Ozean selbst zu kreieren. Erfolgreiche Innovationen können dabei auf technologische Neuentwicklungen basieren, in der Regel handelt es sich aber um eine Neugestaltung bestehender Angebote in einem neuen Umfeld.
B wie Boston-Modell
Der Begriff „Boston-Modell“ (auch BCG-Modell) beschreibt die visuelle Darstellung des Portfolio (Produkte und Dienstleistungen) im Zusammenhang mit dem Produkt-Lebenszyklus. Die Darstellung erfolgt als Matrix, in der die y-Achse das Marktwachstum und die x-Achse den relativen Marktanteil (Verhältnis des eigenen Marktanteils zu dem des marktführenden Wettbewerbers) abbildet. Daher ist auch der Begriff der BCG-Matrix geläufig. Diese wird häufig als Streu- oder Blasendiagramm visualisiert, in der die Fläche eines Kreises je nach Dimensionierung den Umsatz des jeweiligen Produkts, Sortiments oder Geschäftseinheiten darstellt. Das Produkt- oder Sortimentsportfolio oder die Geschäftseinheiten werden anhand ihrer Werte einem der vier Quadranten zugeordnet, woraus sich die jeweilige Strategie ergibt. Der typische Produktlebenszyklus verläuft vom Question Mark über Star und Cashcow zum Poor Dog.
- Question Marks sind die Neuprodukte mit einem hohen Wachstumspotenzial und geringen relativen Marktanteilen. In dieser Phase steht das Management vor der Entscheidung, in das Produkt zu investieren oder das Produkt aufzugeben. Schließlich benötigt das Produkt liquide Mittel, die es bisher nicht selbst erwirtschaften konnte. Typische Empfehlungen in dieser Phase lauten: Selektion und evtl. eine offensive Penetrationsstrategie, um über Wachstum Marktanteile zu erhöhen und Skaleneffekte zu erzielen.
- Stars sind wie der Name verrät die Top-Produkte eines Unternehmens, Umsatzträger mit hoher Marge und imagebildend. Sie haben in der Regel einen hohen relativen Marktanteil und befindet sich in einem Wachstumsmarkt. Den Investitionsbedarf für das weitere Wachstum decken diese Produkte über ihren eigenen Cash-Flow ab. Die strategische Empfehlung in dieser Phase lautet: Investition sowie eine Abschöpfungsstrategie, um Deckungsbeiträge zu erhöhen, ohne hierbei Marktanteile zu verlieren.
- Cashcows haben einen hohen relativen Marktanteil in einem statischen Markt, der nur noch geringfügig wächst. Diese Produkte generieren stabile, hohe Cash-Flows und können ohne weitere Investitionen „gemolken“ werden. Die strategische Empfehlung in dieser Phase ist eine Festpreisstrategie oder Preiswettbewerbsstrategie.
- Poor Dogs haben ihren Zenit überschritten und gelten als Auslaufprodukte im Unternehmen. Diese Produkte haben kein oder nur noch ein sehr geringes Wachstum und in der Regel einen geringen relativen Marktanteil. Meistens werden die Produkte noch „mitgeschleppt“, da für langjährige Kundenbeziehungen verantwortlich sind. Spätestens wenn der Deckungsbeitrag für diese Produkte negativ ist, muss das Portfolio um diese Produkte bereinigt werden. Die strategische Empfehlung lautet dann eine Exit- oder Desinvestitionsstrategie einzuleiten.
Häufig wird das Boston-Modell eingesetzt, um Produkte „gegeneinander“ zu positionieren. Dabei dient die Matrix auch dazu, das gesamte Portfolio im Sinne eines Finanzausgleiches zu betrachten. Produkte im Portfolio sollen sich gegenseitig unterstützen und finanzieren. Question Marks können z. B. nur expandieren, wenn z. B. Cashcows dieses Wachstum finanzieren. Hierbei ist wichtig, dass die Matrix nur eine Momentaufnahme liefert und keine Prognose.
Das Boston-Modell ist ein Werkzeug zur Strategieentwicklung. Benannt wurde das Modell bzw. die Matrix nach der Boston Consulting Group (BCG), deren Gründer Bruce Henderson diese im Jahre 1970 entwickelte. In den letzten 50 Jahren haben sich Märkte weiter entwickelt und neue Herausforderungen ergeben. Infolgedessen bleiben kritische Anmerkungen auch am etablierten BCG-Modell nicht aus. Heute wird die Relation zwischen Marktanteil und Rentabilität in Frage gestellt, da die Entwicklung eines hohen Marktanteils in der Regel auch hohe Investitionen erfordern. Darüber hinaus ignoriert der Ansatz die Positionierung in rückläufigen Märkten wie z. B. Loser, die für ein sinkendes Wachstum bei hohem Marktanteil stehen, also gegen den Markt verlieren. Des Weiteren sieht das Boston-Modell ein Marktwachstum als gegeben an und vernachlässigt, dass Unternehmen durch geeignete Maßnahmen dieses positiv beeinflussen können.
B wie Brain-Machine-Interface (BMI)
Digitale Sprachassistenten wie z. B. Siri oder Alexa haben den Alltag stark vereinfacht. Dennoch weisen diese sprachgesteuerten Assistenzsysteme noch Schwächen auf wie z. B. in der umgangssprachlichen Eingabe, der Verständlichkeit bei Doppeldeutigkeit oder auch Dialekt und Mundart u. a. Brain-Machine-Interface (oder synonym Brain-Computer-Interfaces) sind die konsequente Weiterentwicklung der digitalen Sprachassistenten und ermöglichen eine direkte Informationsübertragung zwischen einem organischen Schaltkreis (Gehirn) und einem technischen Schaltkreis (Computer). Durch das Auslesen von Gedanken bzw. mentalen Befehlen können sie als neurotechnologische Eingabesysteme eine sprach- und bewegungsunabhängige Maschinensteuerung vermitteln. Das Besondere daran ist, dass diese Systeme ohne die Betätigung irgendeines Muskels auskommen. Dies eröffnet ganz neue und revolutionäre Anwendungsmöglichkeiten, nicht nur für körperlich behinderte Menschen. Erste prototypische Systeme findet man z. B. für die Steuerung eines Cursors, in der Bedienung eines virtuellen Buchstabierprogramms oder auch der Steuerung von Prothesen oder der Kontrolle in der Robotik. Weitere Anwendungen fokussieren sich auf die Überwachung von Bewusstseins- und Gefühlszuständen oder die Interaktion mit virtuellen Umgebungen wie z. B. im Bereich Gaming.
Die Informationsübertragung zwischen einem Gehirn und einem Computer beruht grundsätzlich immer auf der Erfassung und Verarbeitung von spezifischen physiologischen Signalen wie z. B. elektrischen Potentialschwankungen oder Fluktuationen im Sauerstoffgehalt des Blutes, die Aufschluss über die neuronale Aktivität geben. Die räumliche und zeitliche Dynamik dieser Signale kann über nicht-invasive Ableitverfahren wie die Elektroenzephalographie (EEG) oder die funktionelle Nahinfrarotspektroskopie gemessen werden. Die Aktivitäten werden vom Brain-Machine-Interface erfasst, in Muster überführt und mit vorgegebenen und/oder erlernten Referenzmustern verglichen. Auf diese Weise identifiziert das System charakteristische neuronale Signaturen, die als Kontrollsignale dienen. Durch die Identifikation und Klassifikation dieser Kontrollsignale entschlüsselt das Brain-Machine-Interface die Intentionen des Nutzers und generiert daraufhin maschinelle Steuerbefehle.
Während sich Brain-Machine-Interfaces in der Medizintechnik weitestgehend noch in der Entwicklungsphase befinden und erst sehr wenige Anwendungen an der Schwelle zur Marktreife stehen, gibt es bereits vergleichsweise einfache BMI in den Bereichen Entertainment, Fitness und Wellness. Headsets mit BMI-Technologie geben z. B. ein Biofeedback und können somit die Stimmung und Gemütslage bewusst beeinflussen, Stress abbauen oder die Konzentrationsfähigkeit erhöhen. Bei diesen Anwendungen geht es also noch nicht um die Steuerung eines maschinellen Systems.
Gegenwärtig besteht das größte Problem bei Brain-Machine-Interfaces in der niedrigen Informationsübertragungsrate zwischen Gehirn und Computer. Außerdem werden die mentalen Signale von den BMI-Systemen zum Teil nicht verstanden oder falsch interpretiert. Hinzu kommt, dass sämtliche Entwicklungen aktuell noch in einer kontrollierten Laborumgebung stattfinden und den Schritt in die alltägliche Anwendung noch nicht überwunden haben. Ein hohes Hintergrundrauschen, elektromagnetische Fremdsignale oder auch die Ablenkung des Nutzers durch eine Vielzahl unterschiedlicher Sinnesreize sind nur einige Aspekte, die sich auf die Funktion der BMI-Systeme negativ auswirken.
Aktuell stellt die Vision einer schnellen, intuitiven und präzisen Gedankenkontrolle und -steuerung von Computern und Maschinen noch Zukunftsmusik dar. Aufgrund der aktuellen Entwicklungen in der neurowissenschaftlichen Grundlagenforschung (Human Brain Project in Europa und BRAIN Initiative in den USA) wird es in den nächsten Jahren in der BMI-Technologie signifikante Fortschritte geben. Einen ersten Durchbruch hat jetzt die Universität von Kalifornien verkündet. Das Team von Joseph Makin hat eine Möglichkeit gefunden, die menschlichen Gehirnaktivitäten in Text zu übersetzen. Der von ihm entwickelte Algorithmus ist in der Lage, einen ganzen Satz über die Hirnaktivitäten der Testperson in einen geschriebenen Satz zu übersetzen. Der auf künstliche Intelligenz basierende Algorithmus nutzte die Hirnimplantate von Testpersonen und konnte die Hirnaktivitäten auslesen und diese interpretieren. Infolgedessen konnte die künstliche Intelligenz lernen, welche Hirnregion in welcher Reihenfolge und mit welcher Intensität aktiviert wurde, um einen vollständigen Satz zu erstellen. Anschließend war das Brain-Machine-Interface in der Lage, selbst Vokale und Konsonanten zu unterscheiden und mehrere Sätze zu bilden. Die Fehlerquote soll lt. Studie dem einer professionellen Sprachtranskription entsprechen.
Ein besseres Verständnis darüber, wie neuronale Signale erfasst, interpretiert und sogar beeinflusst werden können, wird disruptive Entwicklungen in der BMI-Technologie ermöglichen. Bidirektionale BMI-Systeme, die sowohl Informationen auslesen als auch Signale ins Gehirn einspeisen können, werden in Zukunft eine maschinenvermittelte Hirn-zu-Hirn-Kommunikation ermöglichen und einen Grad organisch-technischer Interaktion erschließen, der die Grenzen zwischen Mensch und Maschine verschwimmen lässt. Ob und in welchem Umfang dies tatsächlich Realität wird, ist nicht nur von der technologischen Entwicklung abhängig, sondern auch von der gesellschaftlichen Akzeptanz.
B wie Brainfloating
Brainfloating ist der Oberbegriff für verschiedene Kreativitätstechniken, die Ende der 1980-er Jahre entwickelt wurden. Hierbei soll durch multisensorische Elemente das komplette Gehirn im kreativen Prozess angesprochen werden. Ausgangspunkt für die Entwicklung des Brainfloating-Prinzips war die ursprüngliche Annahme in der Hirnforschung, dass den einzelnen Gehirnhälften bestimmte Funktionen zugeordnet wurden wie z. B., dass die rechte Hirnhälfte für Kreativität und Intuition zuständig wäre und die linke für analytisches Denken und Sprache. Heute besteht in der Hirnforschung soweit Konsens, dass derartige ausschließlichen aufgabenspezifischen Zuweisungen nicht zutreffen. Auch wenn einzelne Aufgaben von der einen Hirnhälfte stärker repräsentiert wird als von der anderen, gibt es dennoch auch Bereiche, die beide Hemisphären gleichermaßen stark beanspruchen. Weiter besteht Konsens darüber, dass es Asymmetrien in der Aufgabenverteilung gibt. Somit sind die Hirnhälften je nach Funktion und Aufgabe unterschiedlich stark involviert. Dieses nutzt man in der Brainfloating-Technik, um das Gehirn zu aktivieren, damit klassische Denkmuster durchbrochen und neue Ideen entwickelt werden können. Elemente dieser Kreativitätstechnik können z. B. Bild-Text-Potenzierung, Creative Casting, Doppelkopf, Dreiklang, Formbildung, Lautmalerei, Simultanaktion oder Umpolung u. a. sein.
B wie Business-Elf
Um das Zusammenspiel unterschiedlicher Fachbereiche und/oder Interessen innerhalb einer Organisation zu symbolisieren, wird gerne der Vergleich zu einem Orchester gezogen. Nur wenn die unterschiedlichen Musikinstrumente in Einklang gebracht werden, ergibt sich ein harmonisches Musikstück. Um das Zusammenspiel möglicher Gegensätze und Konsequenzen für Organisationen aufzuzeigen, hat sich das Modell der so genannten Business-Elf bewährt. Es hilft, den Perspektivwechsel vorzunehmen und sich in den Standpunkt eines Andersdenkenden hinein zu versetzen.
Die Business-Elf bedient gleich mehrere Aspekte. Zum einen symbolisiert sie, dass man als Unternehmen wie auch im Spitzensport nur gemeinsam erfolgreich sein kann oder der Misserfolg immer mehr als einen Verursacher hat. Zum anderen werden Unternehmen erfolgreich sein, wenn sich jeder einzelne Mitarbeiter mit seinem Unternehmen identifiziert, sich als Teamspieler versteht und dennoch genug Ehrgeiz hat, sein Team zu Höchstleistungen zu pushen und eigene Interessen hinten an zu stellen. Dies erfordert Managementkompetenzen und Führungsqualitäten.
Außerdem eignet sich die Business-Elf, um die unterschiedlichen Rollen und Kompetenzen der Fachbereiche eines Unternehmens zu vergleichen. Der Vertrieb z. B. in seinen unterschiedlichen Ausprägungen kann als Sperrspitze eines Unternehmens mit dem Stürmer einer Fußballmannschaft verglichen werden. Er ist für das Versenken der Bälle im gegnerischen Tor verantwortlich. Dafür braucht er Zuarbeit z. B. durch Marketing, Produktmanagement, Technischen Support, Forschung & Entwicklung, Innovationsmanagement oder Logistik. Das Marketing als Dreh- und Angelpunkt im Spielaufbau setzt aber nicht nur kreative Ansätze und Impulse für den Vorverkauf, sondern organisiert auch die „Abwehr“. Im übertragenen Sinne sind hiermit die Fachabteilungen im Backup gemeint (z. B. Produktion, Einkauf, Buchhaltung, Controlling, Recht und Compliance, IT und Datenmanagement usw.). Denn zu häufig wird noch unterschätzt, dass die beste Performance beim Kunden durch den Kollegen im Vertrieb wirkungslos bleibt, wenn nachgelagerte Abteilungen die Erwartungen des Kunden nicht erfüllen oder nicht in der Qualität, die der Vertrieb zugesagt hat. Aufgrund einer Vielzahl an Touchpoints muss die Customer Centricity über alle Unternehmensbereiche verinnerlicht und gelebt werden. Hier zählen auch die vermeintlich „kleinen“ oder „unwichtigen“ Dinge wie der Erstkontakt mit der Telefonzentrale oder die richtig ausgestellte Rechnung genauso wie die „unbequemen“ Dinge wie eine schnelle und unbürokratische Abwicklung einer Reklamation oder Beschwerde, die beim Kunden nachhaltig das Markenbild prägen – positiv wie negativ. In einer gut funktionierenden Organisation kennt jeder Fachbereich seine Rolle und Kompetenzen und konzentriert sich darauf, Höchstleistungen im Sinne der Unternehmensstrategie zu bringen. Ein permanentes Einmischen in andere Bereiche und/oder das Absprechen von Kompetenzen sind deutliche Hinweise auf eine schlechte Unternehmenskultur.
Erfolgreiche Fußballmannschaften sind auf allen Positionen sehr gut und doppelt besetzt. Auch in diesem Punkt kann sich die Wirtschaft viel aus dem Spitzensport abschauen. Und letztendlich kann mit dem Modell der Business-Elf der Unterschied zwischen Vision, Strategie und Taktik erklärt werden. Ein Beispiel: eine Mannschaft spielt in der zweiten Liga im oberen Tabellenbereich und nimmt sich vor, in den nächsten 10 Jahren Deutscher Meister zu werden – dies wäre die Vision. Die Vision ist das übergeordnete und unverrückbare Ziel, das in den nächsten 10 Jahren angestrebt wird. Die Strategie beinhaltet grundlegende Entscheidungen, wie diese Vision erreicht werden soll. Denn neben einer intensiven Nachwuchsarbeit, die eher längerfristig ausgelegt ist, wäre die Alternative, Top-Spieler aus anderen Vereinen zu engagieren. Dieser Weg ist meist kurzfristig möglich, schwächt andere Teams (Wettbewerber) und ist allerdings mit hohen Kosten verbunden. Die Strategie beinhaltet auch das Spielsystem, mit dem eine Mannschaft agieren möchte. Hierfür müssen Spielphilosophie des Trainers und die vorhandenen Spielerqualitäten zusammenpassen, anderenfalls die geeigneten Spieler eingekauft und der richtige Trainer engagiert werden, damit im Training das Spielsystem allen Mannschaftsteilen vermittelt wird. Die individuelle Mannschaftsaufstellung ist geprägt von der Stärke des Gegners sowie ggf. verletzungsbedingten Ausfällen in der eigenen Mannschaft. Dies wiederum ist die Taktik, die sich von Spieltag zu Spieltag ändern kann. Mit taktischen Maßnahmen können im Einzelfall auch mal Defizite in der Strategie kompensiert werden, dauerhaft allerdings nicht. In dem Fall müsste die Strategie angepasst werden. Und wie im Fußball wird der Grundstein für den Erfolg im permanenten Training gelegt. Erfolgreiche Mannschaften trainieren Spielzüge, Freistoßvarianten, Positionswechsel und entwickeln somit eine Routine zwischen den Spielern. Spitzenteams zeichnet darüber hinaus aus, dass sie blitzschnell auf Veränderungen im Spiel reagieren können. Sei es durch einen verletzungsbedingten Ausfall oder die Sperre eines eigenen Spielers oder die geänderte Spielweise durch Einwechslung eines gegnerischen Spielers.
Alle diese Erfahrungen aus dem Spitzensport lassen sich auf Unternehmen übertragen. Erfolgreiche Unternehmen trainieren keine Spielzüge, haben aber funktionierende Prozesse. Sie üben auch keine Freistoßvarianten, führen aber Produkte ein, Verkaufsaktionen durch oder bieten Services und Dienstleistungen mit Mehrwert an. Den Positionswechsel im Sport kann man in der Wirtschaft mit Marktveränderungen gleichsetzen, ob nun durch das veränderte Verhalten des Wettbewerbs, der Bedarfs- und Zielgruppen oder durch Einflüsse aus Politik, Gesetzgebung oder normativen Vorgeben etc. Auch für die egoistischen Spieler im Sport gibt es in Unternehmen Vergleiche in Form von Einzelkämpfern. Diese können Leistungsträger sein und ein Team pushen oder auch Egoisten, die sich nicht an Prozessen beteiligen. Hier haben Führungskräfte die gleiche Aufgabe wie Trainer im Fußball: dies zu erkennen und durch Training im Team, Mannschaftsbesprechungen z. B. über die Taktik oder Einzelgespräche mit betroffenen Spielern (Mitarbeitern) abzustellen. Ansonsten agieren Unternehmen hektisch, improvisieren den Geschäftsalltag und sind unstrukturiert. Die Arbeitsweise ähnelt in dem Fall eher der Hektik und dem Prinzip Zufall, wie man es vom Tischfußball kennt.
B wie Business Model Innovation
Innovationen werden in vielen Unternehmen noch mit der technischen Entwicklung von Produkten gleichgesetzt oder auf diese reduziert, obwohl Prozessinnovationen, Verfahrensinnovationen, Serviceinnovationen, Vertriebsinnovationen und/oder Geschäftsmodellinnovationen den Innovationsbegriff in den letzten Jahren deutlich erweitert haben. Der Begriff Business Model Innovation dagegen bezeichnet erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur Entwicklung der o. g. unterschiedlichen Innovationsarten geht es bei Business Model Innovation vor allem um die Monetarisierung von Produkt-, Service- oder Geschäftsmodellinnovationen. Zentrale Aufgabe besteht darin, wie Nutzen und Mehrwert aus Kundensicht generiert werden, innovative Vertriebswege umgesetzt und neue Modelle zur Monetarisierung eingeführt werden. Dem entsprechend umfasst Business Model Innovation auch Marketing (Formulierung einer innovativen Value Proposition), Vertrieb und Vertriebsmodell sowie die Monetarisierung. Auch die Veränderung einer Monetarisierung wie z. B. ein Miet- oder Leasingmodell anstatt wie bisher der Kauf eines Produktes oder einer Dienstleistung kann in bestimmten Märkten oder Segmenten eine Business Model Innovation darstellen.
B wie Business Transformation
Unter dem Begriff Business Transformation versteht man eine fundamentale Neuausrichtung des eigenen Geschäftsmodells und somit die Veränderung im wirtschaftlichen und gesellschaftlichen Umfeld eines Unternehmens. Infolgedessen werden mehr oder weniger alle Beziehungen eines Unternehmens neu definiert. Hierbei unterscheidet man vier Varianten:
- Reframing: beschreibt die strategische Neuausrichtung der Positionierung von Unternehmen. Purpose und Markenkern werden verändert
- Restructuring: beschreibt die Restrukturierungsmaßnahmen im Unternehmen zur Verbesserung der Wettbewerbsposition
- Revitalizing: beschreibt den Prozess des Wachstums durch Revitalisierung. Hierbei geht es um eine Rückbesinnung und Fokussierung der ursprünglichen Kernkompetenzen
- Renewing: beschreibt die Neupositionierung durch eine Erneuerung, in dem die Organisation zu neuen Kompetenzen befähigt wird.
B wie Business Wargaming
Business Wargaming ist eine dynamisch strategische Simulationsmethode, mit der externe Einflüsse wie zukünftige Marktentwicklungen oder dynamische Veränderungen im Verhalten von Kunden und Wettbewerbern veranschaulicht werden. Gerade durch die agilen und dynamischen Geschäftsmodelle im Umfeld von Startups gewinnen zukunftsgerichtete Simulationsmethoden wie Business-Wargaming an Bedeutung. Die Betrachtung von längeren Zeiträumen, wie dies gerade bei Szenario-Analysen oft gemacht wird, ist oft nicht zielführend. Kürzere Zeiträume spiegeln die Situation volatiler Märkte besser wider. Der martialische Name (im deutschen „Kriegsspiel“) hat seinen Ursprung in der Militärplanung, bei der es um die umfassende Analyse des Umfeldes und dem Durchspielen von Simulationen geht, mit denen Erkenntnisse für den Ernstfall gewonnen werden. Das älteste Wargame wurde lt. Überlieferung vor über 5.000 Jahren durch den chinesischen General und Militärphilosophen Sun Zi entwickelt. In diesem ging es darum, als Erster den Spielgegner zu umzingeln. Schon damals war es die vorherrschende Philosophie, einen militärischen Konflikt durch eine Einkesselungsstrategie erfolgreich zu lösen. Weitere Spiele, die einen Konflikt als Ausgangssituation haben, sind z. B. das japanische Go, das koreanische Baduk oder das indische Chaturanga. In Europa dürfte das ursprünglich aus Persien stammende Schach das bekannteste Spiel dieser Art sein. Militärforscher gehen davon aus, dass der Einsatz von Wargames einen nicht unerheblichen Anteil am Aufstieg Preußens zur europäischen Großmacht hatte. Denn diese Methode wurde zunächst zur Ausbildung und später zur Entwicklung von Kriegsstrategie und -taktik eingesetzt. Wargames wurden genutzt, um Reaktionen der Gegner zu antizipieren und dadurch selbst durchdachter und auf strategischer Ebene proaktiver handeln zu können. Seit Mitte des 20. Jahrhunderts wird die Wargaming-Methode auch im ökonomischen Kontext eingesetzt. So entwickelte die „American Management Association“ 1956 die „Top Management Decision Simulation“, die heute als das erste ökonomische Planspiel gilt. Zwei Jahre später entwickelte die renommierte Harvard Universität eine Wargaming-Methodik im ökonomischen Umfeld.
Aus den, mit mehreren Spielparteien simulierten, „Was-wäre-wenn“-Szenarien können Wechselwirkungen von zukünftigen Handlungen abgeschätzt werden. Das Ergebnis eines Business Wargames kann eine robustere Strategie, eine verbesserte Reaktionsfähigkeit oder ein komplett neues Geschäftsmodell sein, siehe auch →Kill the Company. Während sich klassische Planspiele in der Regel auf einer operativen Ebene bewegen, setzen sich Business Wargames mit strategischen Optionen auseinander. Typische Anwendungen sind neue Geschäftsmodelle oder der Eintritt in neue Märkte, die Positionierung von Pricing-Strategien oder die Einführung von Innovationen. Auch bei der Suche nach strategischen Allianzen im Markt sind Methoden aus dem Business-Wargaming geeignet. Sie sind das ideale Werkzeug im Risikomanagement.
B wie Buyer Personas
Um Strategien, Konzepte oder Kampagnen auf eine bestimmte Gruppe von Menschen auszurichten, wurde früher der unscharfe und dehnbare Begriff der „Zielgruppe“ verwendet. Dieser Begriff stand mal für das Gesamtpotenzial eines Marktes, dann wiederum nur für die Menge in einem Teilmarkt (Branche) oder auch für eine spezifische Gruppe aus einer Marktsegmentierung. Weiterhin wurde der Begriff unsauber verwendet in der Ansprache von Kunden oder Bedarfsgruppen oder auch potenziellen Neukunden. Ausgewählt wurden diese nach unterschiedlichen Kriterien. Dies kann nach soziodemografischen Faktoren wie z. B. Alter, Geschlecht, Generation, Bildung, Kaufkraft usw. erfolgen oder nach Handlungen wie z. B. Neukunde, wiederkehrender oder langjähriger Bestandskunde. Auch psychologische Merkmale oder die Informations- und Kommunikationskanäle können heran gezogen werden.
Nicht erst durch die viel zitierten statistischen Zwillinge Prinz Charles und Ozzy Osborne ist bekannt, dass eine Zielgruppenbeschreibung für Marketing, Vertrieb und Produktmanagement viel zu ungenau und unspezifisch ist. Infolgedessen werden heute zunehmend Buyer Personas eingesetzt, die sehr viel konkreter und spezifischer sind, als es Zielgruppen jemals sein können. Hierbei handelt es sich um eine auf empirischen Informationen, gezielter Recherche, qualifizierter Marktforschung und echten Kundenangaben und -daten erstellte reale Nutzerbeschreibung (Kunden-Avatar), die das unspezifische Bild einer Zielgruppe durch tiefgründiges Hintergrund- und Detailwissen ablöst. Durch die Anwendung von Buyer Personas ändert sich die grundsätzliche Haltung von Unternehmen in ihrer Kundenbeziehung. Man „zielt“ nicht auf seine Kunden, sondern kennt ihre Bedürfnisse, Erwartungen und Herausforderungen, um spezifische und relevante Angebote darauf abzustimmen. Kundenfokus und -zentrierung bekommt ein konkretes Gesicht zu einer echten Person und keine fiktive und abstrakte Beschreibung einer unspezifischen Gruppe. In Folge dessen sind Produkt- und Kundenkommunikation besser aufeinander abgestimmt und sind eindeutiger, zielgerichteter und effektiver. Egal, ob neue Website, neues Verpackungskonzept, ein bevorstehender Markenlaunch, Kampagnen und Promotion-Aktionen oder die strategische Sortimentsausrichtung: nur wer eine hohe Kundenempathie hat, kennt die Bedürfnisse, Erwartungen und Herausforderungen seiner Kunden und kann relevante Angebote zum richtigen Zeitpunkt auf dem geeigneten Kanal und im gewünschten Format anbieten.
BaaS (Backend-as-a-Service)
B wie BaaS (Backend-as-a-Service)
Der Begriff „Backend as a Service“ (BaaS) beschreibt die Bereitstellung einer gehosteten Backend-Infrastruktur. BaaS ist ein Service des →Cloud-Computing und bietet Entwicklern die Möglichkeit, schnell und einfach ein individuelles Backend konfigurieren zu können. Somit müssen diese nicht mehr die komplette Infrastruktur für eine Web-Anwendung selbst programmieren und können sich komplett auf die Gestaltung des Frontends konzentrieren. Ein weiterer Vorteil liegt darin, dass die Wartung des Backend entfällt. Diese liegt beim Anbieter des Service. Die Funktionsweise des BaaS-Anbieters gleicht dem Hosting einer Website. Er liefert die Anwendung mit unterschiedlichen Funktionen, so dass Entwickler die verfügbaren Daten zu einem individuellen Backend zusammenführen können. Auf dieses greifen die Entwickler über eine vom BaaS-Anbieter bereitgestellte Schnittstelle mit Hilfe von APIs oder einer REST-Schnittstelle zu. BaaS-Lösungen enthalten in der Regel eine Vielzahl unterschiedlicher Funktionen wie z. B. das Management der Datenbanken, automatische Updates des Backends, Nutzerauthentifizierung oder Social Log-Ins. Wie bei …as-a-Service-Angebote üblich zahlen Nutzer nur für die Kontingente, die in Anspruch genommen werden. Skalierungsmöglichkeiten sind bei Web-Anwendungen ein entscheidender Faktor, der großen Einfluss auf die Kosten haben kann. Hier bietet Backend as a Service den Vorteil, da die Skalierung wie auch die Handhabung beim BaaS-Anbieter liegt bzw. diese vom Anbieter vorgegeben wird.
BABOK
B wie BABOK
BABOK ist ein Akronym für Business Analysis Body of Knowledge (vollständig, einheitlich, richtig, umsetzbar, änderbar, eindeutig und testbar).
Backlog
B wie Backlog
Der Begriff Backlog wird übersetzt mit Rückstand oder Rückstau, Nachholbedarf oder Auftragsüberhang und beschreibt eine Sammlung von Dingen, insbesondere unvollständige Arbeit oder Angelegenheiten, die erledigt werden müssen. Diese Liste von Aufgaben bzw. Anforderungen, die von einem Team abgearbeitet bzw. realisiert werden sollen, ist allerdings kein Lasten- oder Pflichtenheft. Denn gegenüber einer statischen to-do-Liste früherer Prägung setzt agiles Projektmanagement auf flexible und dynamische Methoden, um auf Veränderungen iterativ reagieren und neue Priorisierung vornehmen zu können. Die unterschiedlichen Arten von Einträgen werden Backlog Items genannt. Hierzu gehören u. a. die funktionalen Anforderungen, Qualitätsanforderungen, User und Job Story, Use Case und andere. Idealerweise enthält jedes Item eine Beschreibung, eine Priorität, eine Aufwandsschätzung und einen messbaren Kundennutzen. Je höher die Priorität eines Items ist, umso genauer muss es spezifiziert werden. Backlogs werden in drei Arten unterschieden:
- →Product Backlog,
- →Release Backlog und
- →Sprint Backlog.
Sind im Rahmen einer Entwicklung verschiedene Teams involviert, wird mit Team Backlogs gearbeitet und die Items entsprechend auf die jeweiligen Team verteilt. Ist nur ein Team involviert sind Release und Team Backlog identisch. Der aktuelle →Scrum Guide kennt nur die beiden Begriffe Product und Sprint Backlog.
Balanced Innovation Scorecard
B wie Balanced Innovation Scorecard
→Innovation Balanced Scorecard
Barcamp
B wie Barcamp
Ein Barcamp (nicht zu verwechseln mit einem →Basecamp) wird auch als Unkonferenz, Mitmach-Konferenz oder Ad-hoc-Nicht-Konferenz bezeichnet, da es sich von klassischen Veranstaltungen deutlich unterscheidet. Während bei herkömmlichen Konferenzen vom Veranstalter Sprecher gebucht werden, gibt es auf Barcamps nur Teilnehmer. Es handelt sich um ein offenes Veranstaltungsformat mit offenen Workshops, deren Inhalte und Ablauf von den Teilnehmern zu Beginn der Veranstaltung selbst entwickelt und im weiteren Verlauf eigenverantwortlich gestaltet werden. Barcamps sind eine Form der Gruppenmoderation. Sie haben Ähnlichkeiten mit →Open Space, sind aber lockerer organisiert. Ein Barcamp besteht aus Vorträgen und Diskussionsrunden (so genannte Sessions), die zu Beginn des Barcamps auf Whiteboards, Metaplänen oder Pinnwänden – in so genannten Grids (Stundenplan) – durch die Teilnehmer selbst koordiniert werden. Alle Teilnehmer sind aufgefordert, selbst einen Vortrag zu halten oder zu organisieren. Das Motto eines Barcamp lautet: Geben und Nehmen, die Philosophie stellt alle auf Augenhöhe. Barcamps dienen dem inhaltlichen Austausch und der ergebnisoffenen Diskussion, können aber auch bereits am Ende der Veranstaltung konkrete Ergebnisse vorweisen. Diese können, falls gewünscht, im Rahmen des so genannten Konvergenzprozesses gewichtet und in einen Maßnahmenplan gebracht werden. Als →Open Innovation Veranstaltung bieten Barcamps viel Raum für unkonventionelle und innovative Wissensformate. Besonders typisch ist, dass die Veranstaltungen kostenlos sind und man in der Regel ohne Einladung teilnehmen kann. Ein wesentliches Element ist die soziale und fachliche Vernetzung der Teilnehmer – auch über das Barcamp hinaus – und der Spaßfaktor.
Basecamp
B wie Basecamp
Ein Basecamp (nicht zu verwechseln mit einem →Barecamp) ist ein spezielles Workshop-Format, das in der Regel eingesetzt wird, wenn eine Gruppe ausgewählter Teilnehmer für ein bestimmtes Thema (Teambuilding, Führungskräftecoaching, Managementklausur, Kick-off z. B. im Rahmen von Innovationsprojekten) sensibilisiert werden soll. Die auch als Smart Innovation Workshop bezeichnete Veranstaltung findet außerhalb des Unternehmens statt und wird häufig mit einem Rahmenprogramm verbunden. Das Ziel ist, die Teilnehmer aus ihrer gewohnten Routine heraus zu nehmen und abseits des Tagesgeschäfts die richtige Atmosphäre zu schaffen, damit Kreativität, innovative Ideen und freie Gedanken gefördert werden. In einem Basecamp werden oft mehr Ideen kreiert, als sonst im ganzen Jahr „nebenher“.
Basistechnologie
B wie Basistechnologie
→Technologietyp
Baudrohne
B wie Baudrohne
In der Bauwirtschaft finden →Drohnen zunehmend ihre Anwendung in der Planung, in der Ausführung und in der Gebäudeunterhaltung. So werden Drohnen u. a. eingesetzt für die Inspektion und Überwachung, Bestandsaufnahme und Vermessung, Bauwerksprüfung und Baudokumentation. Baudrohnen werden vor allem in Bereichen eingesetzt, die für den Mensch nur schwer oder mit hohem Aufwand zugänglich sind. Außerdem übernehmen sie zunehmend gefährliche Aufgaben, die für den Mensch mit einem gewissen Risiko verbunden sind. Sie liefern spezifische und hoch detaillierte Daten zu einem Bruchteil der bisherigen Kosten und in deutlich kürzerer Zeit. Weitere Anwendungen sind die Erstellung von 3D-Modellen oder auch der Einsatz für Marketing- und Werbezwecke.
Bauen 4.0
B wie Bauen 4.0
Die Digitalisierung ist längst auch in der Bauwirtschaft angekommen. Bauen soll in Zukunft digitaler, modularer und stärker automatisiert werden. Der Zusatz „4.0“ steht stellvertretend für eine neue, durch Digitalisierung, Sensorik und Robotik geprägten Stufe industrieller Entwicklungen in der Baubranche. Mit neuen Technologien sollen die verschiedenen Phasen im Lebenszyklus eines Bauwerks wie Planung, Herstellung und Nutzung sowie neu auch dem Rückbau zukünftig auf ein und derselben Informationsgrundlage bearbeitet werden: dem digitalen Gebäudepass, der in seiner Ausprägung das digitale Gebäudemodell – auch als BIM (Building Information Modeling) bezeichnet – durch zusätzliche Informationen erweitert. In der Bauwirtschaft gilt BIM als Methode der Zukunft für Planung und Abwicklung von Bauvorhaben und somit zentrales Element der Digitalisierung der Branche. Die Idee dahinter beschreibt eine geschlossene, digitale Prozesskette, in der sämtliche Phasen im Bauprozess transparent und miteinander verknüpft sind. Darüber hinaus gehören industrielle Vorfertigung und modulare Bauweise genauso zum Bauen 4.0 wie Automatisierung, Robotik und technische Entwicklungen wie z. B. das 3D Druckverfahren von Gebäuden.
Bauroboter
B wie Bauroboter
Die interdisziplinäre Wissenschaft der Roboter ist die →Robotik. Der Begriff stammt ursprünglich vom tschechischen Wort Robota ab und bedeutet so viel wie „Arbeit“. Heute wird ein Roboter als ein automatisch gesteuertes, frei programmierbares Mehrzweckgerät bezeichnet, mit dem Material, Werkstücke, Werkzeuge oder Spezialgeräte bewegt werden kann. Der frei programmierbare Bewegungsablauf in drei oder mehr Achsen macht ihn für verschiedenste Aufgaben einsetzbar. Roboter werden in der Automatisierungstechnik entweder an einem festen Ort oder beweglich angeordnet. Aufgrund der Vielzahl unterschiedlicher Anwendungen und Einsatzgebiete werden Roboter anhand von fünf spezifischen Merkmalen (Aufgabe, Einsatzgebiet, Morphologie, Mobilität und Autonomie) unterschieden. In der Baurobotik werden drei Kategorien unterschieden:
- Teleoperierte Bauroboter (nicht autonom wie z. B. Bagger)
- Programmierbare Bauroboter (computergesteuert und z. B. mit Sensoren ausgestattet wie z. B. 3D-Baggersteuerung)
- Intelligente Bauroboter (halb- oder vollständig autonom, zum Teil unter Einsatz von künstlicher Intelligenz)
Zur dritten Kategorie gehören auch Bauroboter, die wiederkehrende Aufgaben wie Maurer- oder Schweißerarbeiten übernehmen. Diese werden als Single-task Construction Robots (STCRs) bezeichnet. Aktuell werden Bauroboter hauptsächlich noch in der digitalen Vorfertigung eingesetzt oder in hybriden Umgebungen wie z. B. dem →3D Druck. Zukünftig geht es darum, durch so genannte Exoskelette die Vorteile menschlicher Arbeitskraft und Roboter-gesteuerter Automation auch in der Baubranche miteinander zu verknüpfen. Durch Machine Learning werden diese Exoskelette künftig auch Daten im Arbeitseinsatz erfassen und analysieren. Beispiele für automatisierte und halbautomatische Bauroboter sind z. B. „Boston Dynamics Spot“ (ein mobiler Roboter für Inspektionsaufgaben auf dem Gelände einer Baustelle), „Dusty Robotics FieldPrinter“ (ein mobiler Roboter, der Grundrisse mithilfe von BIM-Daten in Originalgröße auf das Geschoss druckt), „Doxel“ (ein mobiler Roboter, der auf der Baustelle den Baufortschritt abscannt und mit dem BIM-Modell abgleicht) oder „Hilti Jaibot“ (ein mobiler Roboter für Bohr- und Montagearbeiten insbesondere Überkopfarbeiten). Thyssen Krupp Elevator hat z. B. eine Robotics-Interface-Plattform geschaffen, mit der Roboter Aufzüge benutzen und sich frei durch ein Gebäude bewegen können und dies auch zwischen unterschiedlichen Stockwerken. In wie weit humanoide Bauroboter den Handwerker auf der Baustelle ablösen und eins zu eins ersetzen wird, bleibt abzuwarten. Aktuell sieht es danach nicht aus.
Baustelle der Zukunft
B wie Baustelle der Zukunft
Mit dem Center Construction Robotics (CCR) entsteht auf dem Campus der RWTH Aachen die Baustelle der Zukunft mittels Digitalisierung. Auf der Referenzbaustelle werden neue Technologien und Automatisierungen sowie neue Bauprozesse, Bauprodukte, vernetzte Maschinen, der Einsatz von Robotern, Softwarelösungen sowie Lehr-, Arbeits- und Kommunikationskonzepte unter realen Baustellenbedingungen getestet. In dem Reallabor geht es von der industriellen Vorfertigung von Bauelementen bis hin zur automatisierten Baustelle. Das Ziel ist der Aufbau eines weitreichenden europäischen sowie regionalen Netzwerks für Forschungs-, Industrie- und Lehrkooperationen im Bereich der Transformation des Bauens. Somit können die Forschungserkenntnisse und Lehrkonzepte direkt in die Wirtschaft einfließen und gezielte Entwicklungs- und Weiterbildungsprojekte angeboten werden.
Baustoffe der Zukunft
B wie Baustoffe der Zukunft
Innovative Baustoffe der Zukunft sind über den gesamten Produktlebenszyklus umweltfreundlich, intelligent und vernetzt, leistungsfähig und lange haltbar, wiederverwendbar oder hochwertig recycelbar und dazu frei von Schadstoffen. Sie sind der Schlüssel für klimaneutrales, modulares und wohngesundes Bauen und die Antwort auf Verknappung der Ressourcen wie Rohstoffe, Fachkräfte usw. Nachfolgend sollen einige interessante und vielversprechende Entwicklungen vorgestellt werden.
Auch wenn es um die Nanotechnologie ein wenig ruhiger geworden ist, gehören nanoskalierte Baustoffe immer noch zu den interessanten Entwicklungen, deren Potenzial noch lange nicht abgeschlossen ist, sei es in Form zugegebener Additive in Nanogröße oder durch die physikalisch-chemische Veränderung der nanoskaligen Oberfläche. Eine interessante Entwicklung in dem Zusammenhang ist Aerographit, was derzeit als leichtester Baustoff der Welt gilt und bis zu 75 Mal leichter ist als Styropor. Er besteht aus Kohlenstoffröhrchen, die auf Nano- und Mikroebene ineinander verwoben sind. Dennoch hält das Material hohen Druck- und Zugbelastungen stand. Außerdem ist Aerographit elektrisch leitfähig, verformbar und undurchsichtig.
Intelligente Fenster nutzen die Nanotechnologie, in dem die hindurchgelassene Menge an Licht und Wärme vom Nutzer über eine App gesteuert werden kann. Die Fenster selbst bestehen aus transparenten Solarpaneelen, über die das Gebäude mit Energie versorgt wird.
Seit einigen Jahren werden nanoskalierte Aerogele auf Silicatbasis zur thermischen Isolierung von Gebäuden eingesetzt. Die aus dem Nanogel hergestellten Beschichtungen weisen eine bis zu 3 Mal niedrigere Wärmeleitfähigkeit als Luft auf und eignen sich als Alternative zu klassischen Wärmedämm-Verbundsystemen im Rahmen der energetischen Gebäudesanierung.
Eine andere Entwicklung ist ein lichtdurchlässiger Faserbeton, der für bis zu 20 cm dicke, transluzente Wände verwendet werden kann. Die Wände bestehen aus einer homogenen Verbindung aus Glasfasern und einem sehr feinkörnigen Beton, der die hohe Lichtdurchlässigkeit sicherstellt.
Beton ist nach wie vor der am meisten genutzte Baustoff der Welt, auch wenn er Risse bekommt, sobald er chemischen Substanzen oder Wasser ausgesetzt ist. Seit einigen Jahren werden spezielle Bakterienstämme eingesetzt, die Calciumcarbonat produzieren, sobald sie mit Wasser in Kontakt kommen. Infolgedessen beginnen diese Mikroorganismen selbständig mit der Reparatur und dem Verschluss der feinen Risse. Experten gehen von einer Haltbarkeit selbstheilender Betone von 200 Jahren aus.
Eine der vielversprechendsten Entwicklungen ist Carbonbeton. Hierbei ersetzt der Hightech-Werkstoff Carbon die schweren Stahlstäbe und -matten im Stahlbeton. Der Verbundwerkstoff aus Beton und Kohlenstofffasern (Carbon) ist 4 Mal leichter, 4 Mal dichter und 5 bis 6 Mal tragfähiger. Dadurch werden Betonwände schlanker und benötigen weniger Material. Nach Angaben der Forscher können bei biegebeanspruchten Bauteilen wie Träger oder Unterzügen bis zu 50% Beton eingespart werden. Ebenfalls um 50 % reduziert sich der CO2-Ausstoß. Carbonbeton verfügt über mehr Festigkeit, Haltbarkeit und Leichtigkeit als herkömmlicher Beton und rostet nicht. Da sich diese flexible Bewehrung fast allen Formen anpassen kann, sind auch filigrane Bauten möglich. Allerdings werden herkömmliche Carbonfasern aus Erdöl gewonnen. Forscher arbeiten bereits daran, diese Faserbewehrung in Zukunft stattdessen aus nachwachsenden Rohstoffen wie Lignin, Flachs oder mithilfe von Algen aus Kohlendioxid herzustellen.
Eine ähnlich interessante Innovation ist Holzbeton, bei dem der Kies- und Sandanteil durch feingeschliffenes Holz ersetzt wird. Der Volumenanteil des Sägemehls beträgt bis zu 50%, so dass Holzbeton bedeutend leichter ist als herkömmlicher Beton und dennoch genauso fest und zudem feuerfest.
Die Menge an Schadholz ist in den letzten Jahren massiv angestiegen und bietet nun den Ausgangspunkt für die nächste innovative Idee. Bei dieser wird das Schwach- und Schadholz in Steinform gepresst, aufeinandergestapelt und mit Holzdübeln verbunden, so dass auf künstliche Verbindungsmittel verzichtet werden kann.
Hoch belastbare und gleichzeitig dünne Bodenelemente mit einer Dicke von nur 2 cm aus einer betonähnlichen Spezialmischung kommen ohne eine zusätzliche Stahlbewehrung aus und weisen eine Gewichtsreduktion von 70% auf. Die Ursache liegt in gewölbten und geometrisch geformten Platten.
Neu sind auch sog. Biokunststoffe. Einer davon übertrifft mit seiner Biegesteifigkeit und Zugfestigkeit selbst Stahl und Spinnenseide, die bisher als das stärkste biologische Material galt. Das ultrastarke Material besteht aus Zellulose-Nanofasern und ist biologisch abbaubar. Seine besonderen Eigenschaften erhält der Biokunststoff durch ein neues Produktionsverfahren, bei dem viele kleine Fasern zusammengepresst werden (hydrodynamische Fokussierung).
Die Bedeutung und der Einsatz natürlicher und nachwachsender Rohstoffe wird in den nächsten Jahren zunehmen. Neben Holz gehört hierzu auch Hanf, der nicht nur als Bewehrung sondern auch für hoch wärmedämmende Steine eingesetzt wird. Hanfsteine absorbieren nicht nur Feuchtigkeit, sondern auch Lärm. Eine ähnliche Entwicklung sind Wollziegel, die aus Lehm, Wolle und einem natürlichen Polymer aus Meeresalgen bestehen. Nach Angaben der Forscher sind diese Steine bis 40% kältebeständiger als konventionelle Ziegel.
Pilze sind Grundlage für die nächste Innovation. Hierbei wird das Myzel, die fadenförmigen Zellen des Pilzes, mithilfe eines speziellen Verfahrens zu einem Dämmstoff weiter verarbeitet. Nach Angaben des Herstellers ist der Bio-Dämmstoff nicht nur leicht, sondern auch biologisch abbaubar, feuerfest und gesundheitlich unbedenklich.
Eine ähnliche Entwicklung basiert auf expandierten Maiskörnern, besser bekannt unter dem Begriff Popcorn. Aufgrund der geringen Wärmeleitfähigkeit eignet sich das Material besonders gut als Dämmung. Der größte Vorteil der Spanplatten, die aus einem Drittel Popcorngranulat und zwei Drittel Holzspänen bestehen, ist das geringe Gewicht.
Aus dem Meer kommt möglicherweise der Ersatz für Steinwolle. Abgestorbenes Seegras eignet sich als Dachdämmung, als Kerndämmung im Mauerwerksquerschnitt oder in Form von Platten bei einem WDVS. Die Alternative ist aufgrund des hohen Salzgehaltes weniger leicht entflammbar als herkömmliche Dämmstoffe, hat vergleichbare Dämmwerte und ist resistent gegen Fäulnis und Schädlinge. Hinzu kommt, dass Fasern aus Seegras relativ viel Feuchte aufnehmen kann, ohne an Dämmwirkung und Massenvolumen zu verlieren.
Kartoffelschalen sind Ausgangsprodukt, einerseits für spezielle Bauplatten und andererseits als Zusatz in Beschichtungen und Belägen, um diesen nicht nur die nötige Konsistenz zu verleihen, sondern um das potenziell hochgradig krebserregende Bindemittel Formaldehyd zu ersetzen.
Diese Auflistung erhebt nicht den Anspruch auf Vollständigkeit. Weitere Ansätze wie z. B. Urban Mining mit Rezyklaten und dgl. würden den Rahmen an dieser Stelle sprengen. Die Baustoffindustrie braucht mehr Kreativität für nachhaltige und ganzheitliche Lösungen. Hierzu gehören neben Hightech-Materialien und smarten Baustoffen auch integrative Systeme und innovative Technologien. Besonders spannend ist die Entwicklung des „idealen“ Baustoffs, der auf ein KI-gestütztes Datenmodell die Bedürfnisse des Bauherren von morgen abdecken soll.
Berufe der Zukunft
B wie Berufe der Zukunft
Die Transformation der Wirtschaft sowie permanente Veränderung von Kundenbedürfnissen und Angeboten wird zwangsläufig neue Berufe hervorbringen. Einige von ihnen gibt es bereits in ersten Tendenzen, andere wiederum werden in den nächsten Jahren erst entstehen. Nachfolgende Beispiele stehen symbolisch für zukünftige Berufe im Marketing und der Digitalisierung:
- Der Data Ethnographer arbeitet mit Echtzeitdaten an allen digitalen Touchpoints, um Erkenntnisse über Kunden zu gewinnen und Empfehlungen für Kampagnen, Kanäle und Formate für die gesamte Marketingorganisation abzugeben. Spezialisierte Datenethnographen werten nicht einfach „nur“ Zahlen aus. Ihre besondere Kompetenz besteht darin, in diesen Daten herauszulesen, wie Kunden mit Marken interagieren. Hierbei sind es oftmals nur Nuancen, um zu erkennen, wie Kunden „ticken“. Erfahrene Datenethnographen konzentrieren sich in einer zunehmenden Datenexplosion und Vielfalt unstrukturierter und unrelevanter Informationen auf das Wesentliche. Ihre Erkenntnisse sind Inspiration für neue Ideen und völlig neue Vermarktungsperspektiven und Marketingstrategien.
- Der Purpose Planner erarbeitet eine Mission und Vision und fokussiert sich hierbei auf den Beitrag des Unternehmens für die Gesellschaft allgemein sowie speziell für Kunden und potenzielle Mitarbeiter. In seiner Betrachtung spielt die Differenzierung aus Kundensicht eine deutlich größere Rolle. Die Aufgabe besteht aber nicht nur in der Konzeption und Erstellung, sondern der permanenten Weiterentwicklung und in der Funktion als Kommunikationskatalysator im gesamten Unternehmen. Purpose Planner identifizieren soziale Ursachen und fördern den Fluss von Informationen, Ideen, Inhalten und Einfluss mit internen und externen Stakeholdern. Ihre Rolle wird langfristig eine positive Einstellung in Bezug auf das Unternehmen, seiner Marke und die von ihm angebotenen Produkte und Dienstleistungen hervorrufen. Grundlage hierfür ist, dass immer mehr Kunden Geld, Zeit und Loyalität in Marken investieren, mit denen sie sich identifizieren können und die für die gleichen Werte stehen. Der Purpose Planner ist der Schlüssel zur Schaffung dieses Bewusstseins.
- Die Sicherstellung von Qualität, Authentizität und Konsistenz von Content in Richtung sämtlicher Streaming-Geschichten und Narrative über eine Vielzahl von Kanälen, einschließlich Filmen, TV-Serien, Podcasts, Chatbots und Videospielen ist die Aufgabe des Master Storytellers. KI wird bereits verwendet, um Werbung zu erstellen, Advertorials zu schreiben und Dialoge in Chatbots zu generieren. Der Master Storyteller stellt sicher, dass auf allen Formaten die gleichen (nicht dieselben) Inhalte kommuniziert werden.
- Loyalty Engineering ist ein neues Kompetenzangebot im Marketing und zielt darauf ab, Kunden in ihren unternehmerischen Erwartungen stärker abzuholen und hierbei in Einklang mit den Marken zu bringen. Das Aufgabengebiet des Loyalty Engineer besteht darin, Angebote zu kreieren, mit denen Kunden Geld verdienen können. Sie hören auf die Bedürfnisse von Kunden, identifizieren diese und setzen ihre Erkenntnisse z. B. in wertschöpfende Online-Tutorials, Events oder exklusive Kundenbindungsprogramme um. Dies schafft langfristige Loyalität zu Unternehmen, Marken, Produkten und Dienstleistungen.
- Die Aufgabe von Neuro-A/B-Testern besteht darin, bei kommerziellen Transaktionen zu helfen, Daten über Erlebnis- oder Sinneskampagnen zu sammeln. Marketingorganisationen können aus diesen ersten Eindrücken viel lernen und durch Überwachung und Auswertung von Gehirnsignalen (Opt-In) beurteilen, wie Kunden z. B. auf ein Produkt, eine Dienstleistung oder Angebote reagieren. Klassische Umfragen und Marktforschung in Fokusgruppen funktioniert immer seltener. Die Ergebnisse der Neurowissenschaften sind in der Beurteilung des Kundenverhaltens deutlich zuverlässiger. Sie nehmen die menschliche Fehlbarkeit aus der Gleichung und stellen objektive und reproduzierbare Daten aus der qualifizierten Hirnforschung zur Verfügung. Neuro-A/B-Tester analysieren die Gehirnaktivität von Kunden bei der Durchführung von experimentellen oder sensorischen Kampagnen (z. B. am Point of Sale). Durch die Arbeit der Hirnforscher kann die Customer Journey noch weiter optimiert, personalisiert und perfektioniert werden.
- Seit einigen Jahren werden personalisierte Beschaffungsdienste auf der Basis von KI und Algorithmen angeboten, die Kunden mit einer Vielzahl von Marken, Produkten und Angeboten durch Drittanbieter verbinden. Bots übernehmen die Arbeit (und das Denken der Kunden). So gibt es z. B. die Modemarke, die mithilfe von KI einmal im Monat eine personalisierte Schachtel mit Kleidung ausliefert, damit der Kunde sie zu Hause ausprobieren kann. Gleiches gibt es im Bereich von Lebensmitteln, Kosmetik usw. Promoter dieser „Aggregator-Marken“ sind Personal-Shopper-Bots. Der Interbrand Marketer hilft hierbei die Geschäftsbeziehung zu den aufkeimenden Influencer Kanälen aufzubauen und zu pflegen, einschließlich Virtual-Shopper-Plattformen, Virtual Concierges, In-Box-Lifestyle-Plattformen und Content-Streamer. Der Interbrand-Marketer verfügt über umfangreiche Erfahrung im B2B- und Influencer-Marketing.
- Die Aufgabe des Mood & Empathy Managers besteht in der Fähigkeit, dass Marketingaktivitäten mit den Absichten, Motivationen und Emotionen der Kunden in Einklang stehen. Diese sollten mit den Bedürfnissen der Kunden übereinstimmen und eine optimale Kombination aus Emotionen und empathischer Reaktion von Kunden hervorrufen. Er ermittelt somit, wie sich ein Kunde instinktiv zu Unternehmen, Marken und Produkten fühlt und wird unverzichtbarer Bestandteil der modernen Markenführung. Im Ergebnis entsteht aus aktiven Bestandskunden eine langfristige Markentreue und -loyalität.
- Der Personal Feedback & Appraisal Designer entwirft und testet KI-Mechanismen, um das Feedback aus Hunderttausenden oder Millionen von Kundeninteraktionen aus der Customer Journey zu sammeln, zu selektieren und automatisch mit personalisierten Antworten und Empfehlungen zurück zu senden. Die besondere Herausforderung besteht darin, dass die hyperpersonalisierten und kontextbezogenen Erfahrungen während der gesamten Customer Journey automatisiert werden. Im Ergebnis haben zufriedene und somit treue und loyale Kunden das Gefühl, dass ihre Marke jeden Wunsch und jedes Bedürfnis wahrnimmt und im Sinne einer Customer Centricity und Brand Experience umsetzt.
- Der Simulation Assistant ist Teammitglied im Simulationsmarketing und arbeitet dem Simulationsplaner und Branchenstrategen zu. Seine Aufgabe besteht darin, prädiktive Informationen zu sammeln und zu verknüpfen, um zukünftige Kundenszenarien für die Angebote zu modellieren. Das Leistungsportfolio ist hierbei sehr breit gefächert: von einfachen Infografiken und komplexen virtuellen Simulationen über Neuro-A/B-Tests bis hin zum virtuellen Klon. Außerdem verwaltet der Simulationsassistent das Prototyping und ist für Test und Rollout von Simulationserfahrungen verantwortlich. Hierbei greift er auf Predictive Intelligence, Szenarioplanung und VR-Tools zurück. In einer simulierten Welt geht es darum, die Vorhersage-Theorie zu einer greifbaren Erfahrung zu machen.
- Der Sixth Sense Analyst ist ein Trendscout. Seine Aufgabe sind Trends rechtzeitig zu erkennen und für Marketing- und Verkaufskampagnen aufzubereiten. Seine besondere Stärke liegt darin, seinen „sechsten Sinn“ mit KI-Algorithmen und schnellen, iterativen Markteinführungstools zu kombinieren, um das Markenerlebnis „von morgen“ zu definieren. Die Analyse des projizierten Verhaltens durch Bedarfs- und Zielgruppen wird im Marketing der Zukunft ein wesentlicher Eckpfeiler.
- Der Subscription Strategist bringt die Kompetenzen eines Media Managers, kreativen Business Analyst und eines Produktmanagers mit, um komplexe, interaktive Ökosysteme zu verknüpfen und den Abonnementprozess zu vereinfachen, Cross-Selling- oder Upselling-Möglichkeiten zu identifizieren und diese mit den Angeboten von Drittanbietern zu vermitteln.
- Die Aufgabe des Haptic Planners besteht darin, die Wirkung von Werbekampagnen über eine Reihe von haptischen Effekten zu maximieren, damit sich diese instinktiv richtig anfühlen. Mit neuen Materialien und der Möglichkeit, ansprechende Texturen zu programmieren, ergeben sich vielfältige Möglichkeiten, haptische Oberflächen zu erzeugen. Diese sollen durch Berührung Neugierde und weiterführendes Interesse erzeugen. Der Haptic Planner arbeitet somit an der Schnittstelle zwischen Oberflächenhaptik und Beschaffung von Texturen, Materialien und Vibrationen.
- Der Machine Personality Designer verleiht digitalen Produkten eine einzigartige Stimme und einen unverwechselbaren Charakter. Diese dienen dazu, dass Kunden und Maschinen interagieren und hilft, KI-Anwendungen ein „authentisches Aussehen“, ein „menschliches Gefühl“ oder einen „emphatischen Charakter“ zu verleihen. Im Ergebnis soll aus einer anonymen Transaktion ein digitaler Touchpoint entstehen, der dem Kunden das Gefühl gibt, gut betreut worden zu sein und „gerne wieder zu kommen“. Der Machine Personality Designer muss ein intuitives Verständnis und eine Leidenschaft für Menschen, Kultur, Ethnographie, Soziologie und Branding mitbringen – und ein multidisziplinäres Team führen können.
- Der In-World-Marketing Architect platziert Product-Placement in virtuellen Räumen. Hierbei kommt es zu einer Verschmelzung zwischen virtueller Realität, Augmented Reality, Videospielen, Filmen und 3D Animationen. Content dieser Art wird in den nächsten 5 Jahren mehr als 90% der visuellen Informationsaufnahme ausmachen. Der In-World-Marketing-Architekt wird somit zum Experten der virtuellen Customer Journey. Er versteht die Motivation, Erwartung, Ziele und Reise der Bedarfs- und Zielgruppen im virtuellen Raum.
- Mikrointeraktionen finden überall und jederzeit statt. Der Micro-interaction Marketing Specialist analysiert diese Touchpoints und identifiziert Ansätze, um Kunden emotional an zu triggern und Entscheidungen oder Wahrnehmungen zu beeinflussen. Hierzu werden visuelle und sensorische Interaktionen verwendet.
- Der Head of Bot Creative ist für die Steuerung von Bots verantwortlich, die im kreativen Marketing zunehmend eingesetzt werden und höchst personalisierte Markenbotschaften mit hoher Relevanz individuell an Kunden verschicken. Hierbei muss sichergestellt werden, dass die Bots eine markenspezifische und authentische Botschaft verschicken, die gleichzeitig eine hohe Relevanz für den Kunden beinhalten. Der Head of Bot Creative bekommt im aufstrebenden Bereich des RIQ (Robotic Intelligence Quotient) eine immer größere Bedeutung. Er wird der entscheidende Filter in einer Welt der automatisch generierten kreativen Arbeit.
- In der vernetzten Welt der intelligenten Dinge sind es nicht mehr nur Menschen, die ihren Freunden Empfehlungen geben, sondern zunehmend eine Kombination aus Menschen und Algorithmen, die von KI und Machine learning angetrieben werden. Das Rennen um die Platzierung in Suchmaschinen von Maschine zu Maschine ist längst eröffnet (Business to Machine). Der Object Persuasion Manager versteht es, eine Logic Learning Machine (LLM) zu entwickeln. Hierbei „überzeugt“ ein algorithmisch-persönlicher Webassistent die Suchmaschinen, damit Marken, Produkte und Dienstleistungen im oberen Ranking auftauchen.
- Der Machine-/People-Ethics Manager stellt sicher, dass in Zeiten zunehmender KI und intelligenter Maschinen die ethischen Grundwerte nicht ignoriert werden.
- Der Customer Wellbeing Specialist ist die Antwort auf den Megatrend Gesundheit, Fitness und bewusste Ernährung und soll Menschen dabei helfen, ihr Wohlbefinden bei der Arbeit, zu Hause, im Urlaub oder an anderen digitalen Touchpoints der Markeninteraktion zu verbessern. Seine Aufgabe besteht darin, personalisierte Push- & Pull-Mechanismen einzusetzen, um das körperliche und geistige Wohlbefinden der Kunden zu verbessern – immer unter Berücksichtigung der sensiblen Thematik Datenethik.
- Der Science Liaison/Bio-Marketing Specialist kombiniert Wissenschaft mit Marketing und analysiert biometrische Daten. Wenn Kunden im Smart Home oder mit ihren Wearables interagieren, bietet sich die Möglichkeit einer personalisierten Markenkommunikation an. Hierzu verwendet der Bio-Marketing-Spezialist ausgewählte biometrischen Kundenmarker, um Lifestyle-Produkte zu kreieren und weiter zu entwickeln.
- Die Kombination aus relevanten Insights mit kreativer Inspiration führt zu neuen Marketing- und Vertriebskampagnen, bei denen Empathie und Expertise verknüpft werden. Neu daran ist die größtmögliche Agilität bei sich verändernden Marktbedingungen. Ein idealtypischer Creative Planner bringt Empathie und Neugier, Logik und Intuition, Visions- und Imaginationskraft, Kommunikationsvermögen und diplomatisches Geschick mit.
Big Data
B wie Big Data
Big Data ist ein unspezifischer Sammelbegriff für große Datenmengen, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auswerten zu können. Außerdem steht der Begriff für den Prozess der Datafizierung und in einigen Fällen wird er synonym für digitale Technologien verwendet. Das „Big“ steht für acht Dimensionen
- volume (Umfang, Datenvolumen)
- velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden)
- variety (Bandbreite der Datentypen und -quellen)
- veracity (Echtheit von Daten)
- value (unternehmerischen Mehrwert) und
- validity (Sicherstellung der Datenqualität)
- variability (Variabilität durch stetige Fluktuationen und großer Varianz)
- veracity (Richtigkeit in Bezug auf Datenqualität).
Big Data steht nicht nur für Quantität und Qualität von Daten. Entscheidend ist, was Unternehmen daraus machen. Die Erfassung, Analyse und Verarbeitung der Daten sollte dazu dienen, entweder Kosten zu senken oder Zeit zu sparen, neue Produkte und optimierte Angebote zu entwickeln oder fundierte Entscheidungen im Geschäftsmodell zu treffen. Deshalb liegt der Mehrwert nicht in den Daten an sich, sondern in der leistungsstarken Analyse.
Neben der Bedeutung als Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen steht Big Data auch als Buzzword für andere Bedeutungen wie z. B. der zunehmenden Überwachung (z. B. der Vorratsdatenspeicherung), zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing), der Verletzung von Intimsphäre und Persönlichkeitsrechten von Kunden, Automatisierung von Produktionsprozessen (Industrie 4.0, IoT), intransparente Automatisierung von Entscheidungsprozessen oder auch datengetriebenes Onlinemarketing.
Big 5 (der Persönlichkeitsmerkmale)
B wie Big 5 (der Persönlichkeitsmerkmale)
Die Big Five der Persönlichkeitsmerkmale sind der Grundstein für das so genannte OCEAN-Modell (nach den Anfangsbuchstaben von Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism). Mit diesem konnten die amerikanischen Psychologen Paul Costa und Robert McCrae nachweisen, dass die Charaktereigenschaften eines Menschen mit nur fünf Adjektiven beschrieben werden können – und dies auf der ganzen Welt. Anhand dieser Big Five Persönlichkeitsmerkmale lässt sich der individuelle Charakter eines Menschen in einem Profil zusammenfassen. Ursprünglich geht die Theorie hinter den Big Five auf die 1930-er Jahre zurück. Bis zu dem Zeitpunkt beschränkte sich die Persönlichkeitspsychologie auf eine Typologie von Menschen. Die Big Five Persönlichkeitsmerkmale dagegen beschreiben fünf grundlegende Charaktermerkmale, die jeder Mensch in unterschiedlich starker Ausprägung hat. Hierzu wurden sämtliche Begriffe, die im Zusammenhang mit der menschlichen Persönlichkeit stehen, zusammengetragen und in mehreren Phasen verdichtet. Damals ging man davon aus, dass sich die Persönlichkeit in der Wortwahl wiederspiegelt. Schlussendlich blieben aus mehr als 18000 Wörtern heterogener Absender nur fünf grundlegende Merkmale übrig, die für alle Menschen (mehr oder weniger) gelten. Die Big Five Persönlichkeitsmerkmale sind in der heutigen Persönlichkeitspsychologie eines der bekanntesten Modelle, um den menschlichen Charakter zu beschreiben. Dem Big Five Modell zufolge setzt sich der menschliche Charakter aus fünf weitgehend unabhängigen und kulturübergreifenden Eigenschaften (Dimensionen) zusammen:
- Offenheit für Erfahrungen (Aufgeschlossenheit in allen Lebenslagen sowie für das Normen- und Wertesystem)
- Gewissenhaftigkeit (Kompetenz, Ordentlichkeit, Perfektionismus, Pflichtbewusstsein, Leistungsstreben, Selbstdisziplin und Besonnenheit)
- Extraversion (Herzlichkeit, Geselligkeit, Extravertiertheit, Durchsetzungsfähigkeit, Aktivität, Frohsinn und Erlebnishunger)
- Verträglichkeit (Vertrauen, Rücksichtnahme, Empathie, Gutherzigkeit, Bescheidenheit, Altruismus, Freimütigkeit und Kooperationsbereitschaft)
- Neurotizismus (Verletzlichkeit, emotionale Labilität, Ängstlichkeit, Depression und Impulsivität)
Die Persönlichkeitspsychologie hat die Existenz dieser fünf Eigenschaften über alle Kulturkreise hinweg in über 3000 wissenschaftlichen Studien belegt. Sie gelten international als das universelle Standardmodell in der Persönlichkeitsforschung und der Big Five Persönlichkeitstest gehört bis heute zu den am häufigsten durchgeführten Tests, sowohl in der Forschung als auch in der Diagnostik. Dabei ist jedes der Big Five Persönlichkeitsmerkmale als Kontinuum zu verstehen: ein Mensch ist nicht entweder durchsetzungsstark, gewissenhaft, bescheiden oder ängstlich oder eben nicht, sondern befindet sich irgendwo auf einer Skala mit einer niedrigen, mittleren oder hohen Ausprägung. Die Forschung geht davon aus, dass einzelne Dimensionen in der Bevölkerung normalverteilt sind und somit die meisten Menschen eine Ausprägung im mittleren Bereich aufweisen. Sehr hohe oder sehr niedrige Werte sind eher selten. Eine hohe oder niedrige Ausprägung bedeutet, dass sich die Werte der Person signifikant vom Durchschnitt (Normwert) unterscheiden. Unterschiede in den Ausprägungen der Big Five lassen sich übrigens nur etwa zur Hälfte bis maximal Zweidrittel durch genetische Einflüsse erklären, der Rest wird durch das Alter und die Umfeldfaktoren beeinflusst. Im Kindes- und Jugendalter schwanken die Werte stark und bleiben erst nach dem 30. Lebensjahr weitgehend konstant. Dies ändert sich wieder ab einem Lebensalter von über 70 Jahre.
Alternativen zum Big Five Modell sind z. B. das bekannte →DISG-Modell, das →Hexagon-Modell oder das Enneagramm. All diesen Modellen ist gemein, dass sie andere Dimensionen annehmen als die Big-Five-Theorie oder diese um andere Faktoren ergänzen. So konzentriert sich das DISG-Modell auf vier vorherrschende Verhaltenstypen (anstatt fünf Charaktereigenschaften) und ist das weltweit führende Tool zur Optimierung der Kommunikation und zwischenmenschlichen Beziehungen (im Vergleich zum weltweit bekanntesten Persönlichkeitstest.
Big Tech
B wie Big Tech
Der Begriff Big Tech ist ein Synonym für Internet- und/oder Technologie-Giganten und bezeichnet die größten IT-Unternehmen der Welt. Da der Begriff allerdings nicht alle großen IT-Unternehmen umfasst, sondern nur die fünf größten: Google (Alphabet), Amazon, Facebook (Meta Platforms), Apple und Microsoft, werden diese auch Big Five oder (als Akronym) GAFAM bezeichnet. Auch das Akronym GAFA für die Big Four ohne Microsoft ist gebräuchlich. Alle fünf Unternehmen stammen aus den USA und haben in den vergangenen Jahr(zehnt)en nicht nur ein rasantes Wachstum hingelegt, sondern in ihren jeweiligen Segmenten eine monopolähnliche Stellung. Gemessen an ihrer Marktkapitalisierung stellen sie nicht nur die fünf wertvollsten Konzerne der USA dar, sondern zusammen mit Saudi Aramco die sechs größten Unternehmen der Welt.
Der Zusatz „Big“ wird in den USA gerne für Branchen verwendet, die so groß und mächtig geworden sind, dass sie politischen Druck auf die Gesellschaft ausüben kann (z. B. um Steuerzahlungen zu „optimieren“). Denn neben Big Tech gibt es auch Big Oil, Big Tobacco oder Big Pharma. Diese Unternehmen werden beschuldigt, Wettbewerb zu unterdrücken oder zu manipulieren, Steuern zu vermeiden, den Datenschutz zu unterlaufen und die Privatsphäre nicht zu respektieren. Kritiker gehen soweit, ihnen eine Unterwanderung der Demokratie zu unterstellen. Hierbei ist nicht nur die Größe und das Wachstum der digitalen Quasi-Monopole beängstigend, sondern das unvergleichliche Tempo und die Geschwindigkeit, mit der diese Unternehmen Daten sammeln und diese in Vorhersage-Algorithmen umwandeln. Durch ihre Marktdominanz und allwissende, undurchsichtige Vernetzung in alle Bereiche der Gesellschaft kontrollieren, manipulieren und diktieren die Big Five einen Großteil der Aufmerksamkeit und Kommunikation, Medien sowie Werbung und beeinflussen Verhaltensweisen von Milliarden von Menschen. Die Dominanz der Tech Five ist erdrückend. Sie beherrschen die wichtigsten Zukunftsmärkte mit Marktanteilen von teils mehr als 90 Prozent. Amazon kontrolliert zwei Drittel des Online-Buchhandels, Google 90 Prozent des Suchmaschinenmarktes und Facebook 75 Prozent der mobilen Kommunikation. Und die Kartellbehörden kommen längst nicht mehr hinterher, alle Verstöße zu ahnden und konzentrieren sich nur noch auf die Beschwerden, die politischen Druck auslösen. Apple ist als erstes amerikanisches Unternehmen an der Börse mehr als eine Billion Dollar wert. Das ist eine Zahl mit zwölf Nullen und deutlich mehr, als die zehn größten deutschen Dax-Unternehmen zusammen wert sind. Allein Apple verfügt über 260 Milliarden Dollar. Es gibt kein (!) Unternehmen auf der Welt, das Apple sich nicht einverleiben könnte. Der iPhone-Hersteller führt damit eine Handvoll Technologie-Firmen an, deren Produkte aus dem täglichen Leben nicht mehr wegzudenken sind. Der Beliebtheit der Big Five schadet dies nicht.
BIM (Building Information Modelling)
B wie BIM (Building Information Modelling)
BIM ist die Abkürzung für Building Information Modelling und beschreibt eine ganzheitliche digitale Methode zur Planung und Realisierung von Bauvorhaben. Im Gegensatz zur Vergangenheit und in den meisten Fällen auch noch in der Gegenwart, in der sämtliche Planungsunterlagen wie Produktdokumentationen, Kalkulationen und Berechnungen, Zeichnungen und Ausschreibungen usw. manuell, separat und individuell erstellt und analog archiviert werden, wird im Kontext von „BIM“ durch alle an einem Bauvorhaben Beteiligten ein 3D Model genutzt und darin die Prozesse digital abgebildet. Durch Cloudlösungen können alle Beteiligten jederzeit und von überall auf das BIM-Model zugreifen. Dies bedeutet, dass Statiker, Architekten, Ingenieure, Handwerker usw. alle im selben Model arbeiten. Lieferanten erhalten einen begrenzten Zugang, um Produktinformationen zur Verfügung zu stellen. BIM geht weit über die reine Erstellung von Zeichnungen hinaus und umfasst heute schon die Überführung in fotorealistische 3D Modelle, ein Ressourcen- und Risikomanagement, automatisierte Berechnungen z. B. über den U-Wert und Simulationen wie z. B. über Wartungsintervalle oder Renovierungszyklen. Dadurch wird nicht nur sichergestellt, dass spezifische Leistungen und Produktinformationen der jeweiligen Gewerke immer aktuell sind, sondern auch mangelnde Abstimmung zwischen den Beteiligten und Fehlplanungen werden vermieden. Eine hohe Transparenz in der Bau- und Nutzungsphase soll Zeit und Kosten sparen und Daten für nachgelagerten Maßnahmen zugänglich machen. BIM ist eine operative Methodik und kein Werkzeug, wie es oft hingestellt wird. Es muss als Digitalisierungsprozess eines Gebäudes identifiziert werden, der ein digitales Informationsmodell verwendet und alle Informationen in Bezug auf den gesamten Lebenszyklus enthält wie z. B. Projekt, Bau, Management, Wartung, Entsorgung – und nicht nur in der Planungsphase. Für die Kommunikation zwischen diesen Daten ist das standardisierte Dateiformat „Industry Foundation Classes“ (→IFC-Format) zuständig. Es bietet einen Austausch zwischen den Fachprogrammen verschiedener Gewerke, so dass diese während der Planung, in der Bau- und bei Bedarf in der späteren Nutzungsphase Daten austauschen können.
BIM-Autoren-Software
B wie BIM-Autoren-Software
Softwareanwendungen für →BIM (Building Information Modeling) werden auch als BIM-Autoren-Software bezeichnet und nehmen im BIM-Prozess eine Schlüsselrolle ein. Mit ihnen werden digitale Bauwerksmodelle in der Regel mit parametrisierten Modellelementen in 3D konstruiert. BIM-Autoren-Software gibt es spezialisiert auf eine bestimmte oder generalisiert auf mehrere spezifische Fachplanungsdisziplinen. Folgende Funktionen sollte eine BIM-Autoren-Software beinhalten:
- Erstellung und Visualisierung von geometrisch komplexen Bauwerken, inklusive außergewöhnlicher Entwurfsvarianten und Designs
- Verwaltung von alphanumerischen Informationen in Verbindung mit geometrischen Modellelementen inklusive der Möglichkeit, projekt- oder bürospezifische Parameter und Kennziffer definieren zu können
- Erzeugung von Bauteillisten und -mengen sowie -massen
- Zugriff durch mehrere Nutzer und/oder von verschiedenen Arbeitsplätzen inklusive der Einrichtung von Arbeitsbereichen und einem Berechtigungskonzept für definierte Model Element Autoren
- →IFC als Import- und/oder Exportformat mit Funktionen, die IFC-Version und für den Export verwendete Model View Definition konfigurieren zu können
- Import- und/oder Exportfunktionen für CAD-Dateien inklusive dem Referenzieren digital vorliegender Bestandspläne und/oder dem Verknüpfen von 2D-CAD-Details mit dem BIM-Modell
- Unterstützung einer modellbasierten Kommunikation
- Erzeugung und Verwaltung von Plänen mit Grundrissen, Ansichten oder Schnitten direkt aus dem 3D-Modell
- Integrierte Bibliothek und Chronologie generischer BIM-Objekte
Eine offene Schnittstelle, um die Software nach eigenen Bedürfnissen anpassen zu können oder um Anpassungen von anderen Entwicklern nutzen zu können, wäre hilfreich.
BIM-Modell
B wie BIM-Modell
Während →BIM (Building Information Modeling) die Methode beschreibt, ist das BIM-Modell das zugrundeliegende Datenmodell, mit dem die digitale Gebäudemodellierung strukturiert wird. Dieses umfasst neben geometrischen auch alphanumerische Daten und soll das spätere Gebäude als „digitalen Zwilling“ abbilden. Hierfür werden spezialisierte Softwaresysteme benötigt, die weit über den bisherigen Funktionsumfang herkömmlicher CAD-Systeme hinausgehen. Diese Software wird auch als BIM Autoren Software bezeichnet, die mit ihnen arbeitenden Architekten, Fachplaner, technische Zeichner usw. als BIM Software Autoren. Diese besitzen die Berechtigung zum Erstellen, Ändern und Löschen von Modellelementen, weshalb jedes Element eines BIM-Modells mit dem zuständigen Autor (im englischen auch als Model Element Author bezeichnet) gekennzeichnet werden sollte. In der Regel weist ein BIM-Projekt mehrere BIM-Modelle auf, die je nach Fachmodelle, Gebäudeteile, Geschosse oder Bauabschnitte aufgeteilt werden. Alle BIM-Modelle eines Projekts werden in einem Koordinationsmodell zusammengeführt. Damit zwischen diesen Teil- bzw. Fachmodellen ein gemeinsamer Bezug hergestellt werden kann, bildet das Architekturmodell das Referenzmodell, in der die BIM Autoren Software verknüpft wird.
Bionik
B wie Bionik
Der Begriff Bionik (auch Biomimetik) setzt sich zusammen aus Biologie und Technik und beschreibt das kreative Umsetzen von Anregungen bzw. Übertragen von Phänomenen aus der Biologie auf die Technik. Bioniker arbeiten hierbei interdisziplinär zusammen mit Biologen und Naturwissenschaftlern sowie mit Ingenieuren, Architekten, Materialforschern und Designern. Bionik als noch sehr junge Wissenschaftsdisziplin verfolgt das Ziel, durch Abstraktion, Übertragung und Anwendung von Erkenntnissen, die an biologischen Vorbildern gewonnen werden, systematisch technische Fragestellungen zu lösen. Biologische Vorbilder im Sinne dieser Definition sind biologische Prozesse, Materialien, Strukturen, Funktionen, Organismen und Erfolgsprinzipien sowie der Prozess der Evolution. Das Ziel ist ein von der Natur getrenntes technisches Ergebnis, wodurch sich die Bionik von Wissenschaften, die biologische Prozesse nutzen und erweitern, wie z. B. die Bioinformatik, Biophysik und Biochemie unterscheidet.
Bioniker greifen auf das große Reservoir an biologischen Strukturen, Prozessen und oft überraschenden funktionalen Lösungen zurück, die in Millionen von Jahren evolutionärer Entwicklung und Biodiversität erprobt und durch die Natur selbst optimiert wurden. Sie liefern Ideen für nachhaltige und vor allem oft unerwartete innovative Anwendungen, die Sprunginnovationen möglich machen. In der Bionik wird hierbei unterschieden zwischen einer reinen Kopie natürlicher Vorbilder oder ein durch die Natur angeregtes „Neuerfinden“.
Die Natur ist der erfolgreichste Innovator aller Zeiten und die Bionik überzeugt mittlerweile als etablierte Innovationsmethode. Dies belegen Produktinnovationen auch in der Baubranche wie z. B. superhydrophobe Oberflächen für Unbenetzbarkeit und Selbstreinigung (Lotus-Effekt) bei Fassadenbeschichtungen oder Dachziegel, Nanostrukturen für klebstofffreies Haften (Gecko) bei Klebefolien oder auch Strukturoptimierung von Bauteilen (CAO und SKO durch Wuchsformen von Bäumen oder Knochen).
Übrigens: die Entdeckung der Schwarmintelligenz geht u. a. auf Verhaltensweisen von Insekten zurück und wird auch als Ameisenalgorithmus bezeichnet.
Bisoziation
B wie Bisoziation
Der Begriff Bisoziation wurde vom ungarisch-britischen Schriftsteller Arthur Koestler in Anlehnung an das Wort Assoziation eingeführt. Während bei der Assoziation Dinge auf einer Ebene verknüpft werden, verknüpft die Bisoziation Dinge auf zwei unterschiedlichen Ebenen. Diese Kreativitätstechnik dient dazu, geistige Routinen zu durchbrechen und dadurch kreative, ungewohnte und innovative Lösungsansätze zu finden. Die Ergebnisse dieser Methode können zu drei wesentlichen Entdeckungen führen: zu Erkenntnis und Entdeckung (überraschende und neue Einsichten), zum Verständnis (von Zusammenhängen) und in manchen Fällen auch zu Humor, denn aus dem Zusammentreffen nicht zusammen gehörender Dinge kann auch Komik entstehen. Das Besondere an der Bisoziation besteht darin, dass zwei vorher nicht verbundene Denk-Dimensionen zusammengeführt werden, um neue Ideen zu entwickeln. Deshalb wird diese Methode neben der Ideenfindung und als Kreativitätstechnik gerne auch im Rahmen von Problem- oder Konfliktlösungen eingesetzt.
Blockchain
B wie Blockchain
Eine Blockchain (englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen in einzelnen Blöcken. Neue Blöcke werden nach einem Konsensverfahren erstellt und mittels kryptographischer Verfahren an eine bestehende Kette angehängt. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Die Blockchain-Technologie eignet sich ideal, um Informationen in der Wirtschaft auszutauschen. Sie liefert sofortige, gemeinsam genutzte und vollständig transparente Informationen, die in einem nicht veränderbaren Ledger gespeichert sind, auf das nur berechtigte Netzwerkmitglieder zugreifen können. Ein Blockchain-Netzwerk kann Aufträge, Zahlungen, Konten, Produktion und vieles mehr verfolgen. Da alle Nutzer eine einheitliche und transparente Sicht auf die Informationen haben, sind sämtliche Details einer Transaktion von Anfang bis Ende einsehbar. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen bestätigen. Infolgedessen ist es unmöglich, Existenz oder Inhalte der früheren Transaktionen nachträglich zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu ändern. Andere Teilnehmer der Transaktionen erkennen eine Manipulation der Blockchain an der Inkonsistenz der Blöcke. Dies schafft nicht nur Transparenz, sondern auch eine vertrauenswürdige Zusammenarbeit zwischen verschiedenen Organisationen und erhöht die Effizienz deutlich. Denn bisher war für bestimmte Transaktionen immer die Einbindung einer zentralen Instanz notwendig, z. B. eines PKI-Systems, Notars usw. Alternativ müsste dies ein Treuhänder übernehmen, der die Zusammenarbeit und Eigentumsübertragung zwischen den verschiedenen Organisationen verwaltet und verifiziert. Dies verursacht Kosten und verlangsamt die Prozesse. Da die Blockchain-Technologie dies automatisiert übernimmt, werden die Prozesse deutlich schneller und effektiver. Doppelte Aufzeichnungen und Validierungen durch Dritte entfallen. Außerdem sind die herkömmlichen Systeme anfällig für Betrug und Cyberattacken. Die Blockchain-Technologie hat den Vorteil, dass die Daten als Transaktionen in den einzelnen Blöcken manipulationssicher gespeichert werden können. Dies bedeutet, dass die Teilnehmer der Blockchain in der Lage sind, die Echtheit, den Ursprung und die Unversehrtheit der gespeicherten Daten (Transaktionen) zu überprüfen. Deshalb wird die Blockchain auch als „Internet der Werte“ (Internet of values) bezeichnet und legt die technische Basis für Kryptowährungen wie z. B. Bitcoin.
Man kann die Eigenschaften einer Blockchain wie folgt zusammenfassen:
- Verkettungsprinzip: Eine Blockchain ist eine Verkettung von Datenblöcken, die über die Zeit weiter fortgeschrieben wird
- Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt
- Konsensmechanismus: Es wird sichergestellt, dass bei allen Beteiligten eine identische Kette entsteht. Neue Blöcke müssen vorher miteinander abgestimmt werden (durch Validatoren, die bei Bitcoin „Miner“ genannt werden). Das Einfügen eines vorgeschlagenen Blocks in die Kette erfolgt durch ein Konsensprotokoll (algorithmisches Verfahren zur Abstimmung)
- Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich verändert werden kann. Die Verkettung der Blöcke ist unveränderbar, fälschungs- und manipulationssicher
- Transparenz und Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar und können nach Bedarf individuell verschlüsselt werden, so dass Blockchains das Berechtigungskonzept je nach Vertraulichkeitsgrad flexible anpassen kann
- Eineindeutigkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmer bestimmte Daten eineindeutig hinterlegt haben
- Distributed-Ledger-Technologie: Alle Beteiligten haben Zugriff auf das verteilte Register und seine unveränderlichen Transaktionsaufzeichnungen. Diese werden nur einmal aufgezeichnet, wodurch der für herkömmliche Geschäftsnetzwerke typische Mehrfachaufwand entfällt
- Intelligente Verträge: Um Transaktionen zu beschleunigen, wird ein Satz von Regeln – ein „Smart Contracts“ – auf der Blockchain gespeichert und automatisch ausgeführt. Intelligente Verträge können Bedingungen z. B. für die Übertragung von Unternehmensanleihen festlegen oder für die Zahlung von Reiseversicherungen und vieles mehr.
Blue-Ocean-Methodik
B wie Blue-Ocean-Methodik
Die Blue-Ocean-Methodik basiert auf der Implementierung der Value Innovation. Zentrales Instrument hierbei ist die Wertkurve, mit der sich das relative Leistungsprofil eines Unternehmens innerhalb einer Branche darstellen und analysieren lässt. Die horizontale Achse wird über die kritischen Erfolgsfaktoren bestimmt, die in der Regel der Marktforschung oder Unternehmensstrategie entnommen wird. Die vertikale Achse beschreibt das Leistungsniveau innerhalb einer Branche (Skala von niedrig bis hoch). Die zu untersuchende Einheit wird auf der Wertkurve eingeordnet. Erhält diese Einheit einen hohen Wert für einen Faktor bedeutet dies eine bessere Leistung im Vergleich zu Wettbewerbern (und umgekehrt). Zusätzlich werden die Wertkurven wichtiger Wettbewerber oder relevanter strategischer Gruppen nach dem gleichen Schema ermittelt. Werden mehrere Wertkurven für unterschiedliche Unternehmen in einem Chart abgebildet, spricht man auch vom so genannten Strategy Canvas.
Anschließend wird ein andersartiges Leistungsangebot konstruiert eine neue Wertkurve entwickelt, mit dem ein echter Kundennutzen und Mehrwert geboten wird. In der →Blue-Ocean-Strategie werden hierfür vier Maßnahmen („Four Actions Framework“) definiert, um Kernelemente zu verändern bzw. neu zu definieren und somit Wertkurven nachhaltig zu verändern:
- Eliminierung: Welche Faktoren können weggelassen werden?
- Reduzierung: Was kann radikal gekürzt werden?
- Steigerung: Welche Elemente des Produkts müssen über den Branchenstandard gehoben werden?
- Kreierung: Welche Komponenten eines Produkts müssen neu erfunden werden?
Durch die Veränderung und neue Definition der Kernelemente einer Wertekurve sollen neue Geschäftsmodelle entwickelt werden. In der Blue-Ocean-Strategie werden hierfür sechs Lösungen („Six Paths Framework“) empfohlen:
- Die Perspektive systematisch auf weitere Branchen richten.
- Übergreifende Angebote in einer Branche definieren.
- Neue Zielgruppen in der Käuferkette finden.
- Komplementäre Produkte und Dienstleistungen zu einer Gesamtlösung zusammenfassen.
- Funktionale oder emotionale Ausrichtung der Branche überprüfen.
- Veränderungen im Zeitablauf erkennen.
Für eine erfolgreiche Umsetzung dürfen zwei Aspekte nicht vernachlässigt werden. Zum einen müssen organisatorische Hürden überwunden (Tipping-Point-Management) und zum anderen muss die Umsetzung in die Strategie eingebunden werden.
Blue-Ocean-Strategie
B wie Blue-Ocean-Strategie
Die Blue-Ocean-Strategie stellt eine Methode im strategischen Management dar. Im Kern geht es darum, neue und innovative Märkte zu erkennen oder zu entwickeln, in denen es (noch) keinen Wettbewerb gibt, um diese mit innovativen Ideen und rentablen Geschäftsmodellen zu besetzen. Die von den Professoren W. Chan Kim und Renée Mauborgne entwickelte Strategie wurde 2004 vorgestellt und zunächst als Value Innovation bezeichnet. Der Grundgedanke der Blue-Ocean-Strategie besteht in der Nutzen- und Mehrwertbasierten Innovation in einem neuen Marktsegment, in dem der bisherige Wettbewerb irrelevant und Kunden ein unvergleichbares Angebot unterbreitet wird. Die Blue-Ocean-Strategie zielt deshalb nicht darauf ab, sich vom Wettbewerb zu differenzieren wie dies z. B. in den herkömmlichen Wettbewerbsstrategien z. B. nach Michael Porter der Fall ist, sondern Nachfrage zu generieren und/oder Bedürfnisse zu schaffen, die es so bisher nicht gegeben hat. In diesen neuen Märkten ohne etablierten Wettbewerb werden neben der Erzielung einer deutlich höheren Umsatzrentabilität in der Regel auch neue Marktmechanismen und Wettbewerbsregeln etabliert. Erfolgreiche Unternehmen investieren ca. 15% ihrer Ressourcen in inkrementelle bis disruptive Innovationen in neue Märkte. Im Vergleich dazu wenden weniger erfolgreiche Unternehmen über 80% ihrer F&E-Ressourcen auf, um bestehende Angebote und Märkte zu bedienen und zu optimieren sowie auf Aktionen des Wettbewerbs zu reagieren (Quelle: Harvard Business Manager, Heft 3/2019).
„Blue Oceans“ stehen in dem Zusammenhang für „sauber“, „unberührt“ und „friedlich“ und sollen ein Marktumfeld mit keinem (oder sehr wenig) Wettbewerb beschreiben. „Red Oceans“ dagegen stehen symbolisch für blutige Kämpfe unter Raubfischen und beschreiben Auseinandersetzungen in gesättigten Märkten durch bestehende Wettbewerber, in denen harte Preiskämpfe geführt werden, um das eigene Überleben zu sichern. Infolgedessen geht es bei der Blue-Ocean-Strategie darum, sich nicht am Wettbewerb orientieren, sondern eigene innovative Wege zu suchen, zu finden und zu entwickeln, um einen Blauen Ozean selbst zu kreieren. Erfolgreiche Innovationen können dabei auf technologische Neuentwicklungen basieren, in der Regel handelt es sich aber um eine Neugestaltung bestehender Angebote in einem neuen Umfeld.
Boston-Modell
B wie Boston-Modell
Der Begriff „Boston-Modell“ (auch BCG-Modell) beschreibt die visuelle Darstellung des Portfolio (Produkte und Dienstleistungen) im Zusammenhang mit dem Produkt-Lebenszyklus. Die Darstellung erfolgt als Matrix, in der die y-Achse das Marktwachstum und die x-Achse den relativen Marktanteil (Verhältnis des eigenen Marktanteils zu dem des marktführenden Wettbewerbers) abbildet. Daher ist auch der Begriff der BCG-Matrix geläufig. Diese wird häufig als Streu- oder Blasendiagramm visualisiert, in der die Fläche eines Kreises je nach Dimensionierung den Umsatz des jeweiligen Produkts, Sortiments oder Geschäftseinheiten darstellt. Das Produkt- oder Sortimentsportfolio oder die Geschäftseinheiten werden anhand ihrer Werte einem der vier Quadranten zugeordnet, woraus sich die jeweilige Strategie ergibt. Der typische Produktlebenszyklus verläuft vom Question Mark über Star und Cashcow zum Poor Dog.
- Question Marks sind die Neuprodukte mit einem hohen Wachstumspotenzial und geringen relativen Marktanteilen. In dieser Phase steht das Management vor der Entscheidung, in das Produkt zu investieren oder das Produkt aufzugeben. Schließlich benötigt das Produkt liquide Mittel, die es bisher nicht selbst erwirtschaften konnte. Typische Empfehlungen in dieser Phase lauten: Selektion und evtl. eine offensive Penetrationsstrategie, um über Wachstum Marktanteile zu erhöhen und Skaleneffekte zu erzielen.
- Stars sind wie der Name verrät die Top-Produkte eines Unternehmens, Umsatzträger mit hoher Marge und imagebildend. Sie haben in der Regel einen hohen relativen Marktanteil und befindet sich in einem Wachstumsmarkt. Den Investitionsbedarf für das weitere Wachstum decken diese Produkte über ihren eigenen Cash-Flow ab. Die strategische Empfehlung in dieser Phase lautet: Investition sowie eine Abschöpfungsstrategie, um Deckungsbeiträge zu erhöhen, ohne hierbei Marktanteile zu verlieren.
- Cashcows haben einen hohen relativen Marktanteil in einem statischen Markt, der nur noch geringfügig wächst. Diese Produkte generieren stabile, hohe Cash-Flows und können ohne weitere Investitionen „gemolken“ werden. Die strategische Empfehlung in dieser Phase ist eine Festpreisstrategie oder Preiswettbewerbsstrategie.
- Poor Dogs haben ihren Zenit überschritten und gelten als Auslaufprodukte im Unternehmen. Diese Produkte haben kein oder nur noch ein sehr geringes Wachstum und in der Regel einen geringen relativen Marktanteil. Meistens werden die Produkte noch „mitgeschleppt“, da für langjährige Kundenbeziehungen verantwortlich sind. Spätestens wenn der Deckungsbeitrag für diese Produkte negativ ist, muss das Portfolio um diese Produkte bereinigt werden. Die strategische Empfehlung lautet dann eine Exit- oder Desinvestitionsstrategie einzuleiten.
Häufig wird das Boston-Modell eingesetzt, um Produkte „gegeneinander“ zu positionieren. Dabei dient die Matrix auch dazu, das gesamte Portfolio im Sinne eines Finanzausgleiches zu betrachten. Produkte im Portfolio sollen sich gegenseitig unterstützen und finanzieren. Question Marks können z. B. nur expandieren, wenn z. B. Cashcows dieses Wachstum finanzieren. Hierbei ist wichtig, dass die Matrix nur eine Momentaufnahme liefert und keine Prognose.
Das Boston-Modell ist ein Werkzeug zur Strategieentwicklung. Benannt wurde das Modell bzw. die Matrix nach der Boston Consulting Group (BCG), deren Gründer Bruce Henderson diese im Jahre 1970 entwickelte. In den letzten 50 Jahren haben sich Märkte weiter entwickelt und neue Herausforderungen ergeben. Infolgedessen bleiben kritische Anmerkungen auch am etablierten BCG-Modell nicht aus. Heute wird die Relation zwischen Marktanteil und Rentabilität in Frage gestellt, da die Entwicklung eines hohen Marktanteils in der Regel auch hohe Investitionen erfordern. Darüber hinaus ignoriert der Ansatz die Positionierung in rückläufigen Märkten wie z. B. Loser, die für ein sinkendes Wachstum bei hohem Marktanteil stehen, also gegen den Markt verlieren. Des Weiteren sieht das Boston-Modell ein Marktwachstum als gegeben an und vernachlässigt, dass Unternehmen durch geeignete Maßnahmen dieses positiv beeinflussen können.
Brain-Machine-Interface (BMI)
B wie Brain-Machine-Interface (BMI)
Digitale Sprachassistenten wie z. B. Siri oder Alexa haben den Alltag stark vereinfacht. Dennoch weisen diese sprachgesteuerten Assistenzsysteme noch Schwächen auf wie z. B. in der umgangssprachlichen Eingabe, der Verständlichkeit bei Doppeldeutigkeit oder auch Dialekt und Mundart u. a. Brain-Machine-Interface (oder synonym Brain-Computer-Interfaces) sind die konsequente Weiterentwicklung der digitalen Sprachassistenten und ermöglichen eine direkte Informationsübertragung zwischen einem organischen Schaltkreis (Gehirn) und einem technischen Schaltkreis (Computer). Durch das Auslesen von Gedanken bzw. mentalen Befehlen können sie als neurotechnologische Eingabesysteme eine sprach- und bewegungsunabhängige Maschinensteuerung vermitteln. Das Besondere daran ist, dass diese Systeme ohne die Betätigung irgendeines Muskels auskommen. Dies eröffnet ganz neue und revolutionäre Anwendungsmöglichkeiten, nicht nur für körperlich behinderte Menschen. Erste prototypische Systeme findet man z. B. für die Steuerung eines Cursors, in der Bedienung eines virtuellen Buchstabierprogramms oder auch der Steuerung von Prothesen oder der Kontrolle in der Robotik. Weitere Anwendungen fokussieren sich auf die Überwachung von Bewusstseins- und Gefühlszuständen oder die Interaktion mit virtuellen Umgebungen wie z. B. im Bereich Gaming.
Die Informationsübertragung zwischen einem Gehirn und einem Computer beruht grundsätzlich immer auf der Erfassung und Verarbeitung von spezifischen physiologischen Signalen wie z. B. elektrischen Potentialschwankungen oder Fluktuationen im Sauerstoffgehalt des Blutes, die Aufschluss über die neuronale Aktivität geben. Die räumliche und zeitliche Dynamik dieser Signale kann über nicht-invasive Ableitverfahren wie die Elektroenzephalographie (EEG) oder die funktionelle Nahinfrarotspektroskopie gemessen werden. Die Aktivitäten werden vom Brain-Machine-Interface erfasst, in Muster überführt und mit vorgegebenen und/oder erlernten Referenzmustern verglichen. Auf diese Weise identifiziert das System charakteristische neuronale Signaturen, die als Kontrollsignale dienen. Durch die Identifikation und Klassifikation dieser Kontrollsignale entschlüsselt das Brain-Machine-Interface die Intentionen des Nutzers und generiert daraufhin maschinelle Steuerbefehle.
Während sich Brain-Machine-Interfaces in der Medizintechnik weitestgehend noch in der Entwicklungsphase befinden und erst sehr wenige Anwendungen an der Schwelle zur Marktreife stehen, gibt es bereits vergleichsweise einfache BMI in den Bereichen Entertainment, Fitness und Wellness. Headsets mit BMI-Technologie geben z. B. ein Biofeedback und können somit die Stimmung und Gemütslage bewusst beeinflussen, Stress abbauen oder die Konzentrationsfähigkeit erhöhen. Bei diesen Anwendungen geht es also noch nicht um die Steuerung eines maschinellen Systems.
Gegenwärtig besteht das größte Problem bei Brain-Machine-Interfaces in der niedrigen Informationsübertragungsrate zwischen Gehirn und Computer. Außerdem werden die mentalen Signale von den BMI-Systemen zum Teil nicht verstanden oder falsch interpretiert. Hinzu kommt, dass sämtliche Entwicklungen aktuell noch in einer kontrollierten Laborumgebung stattfinden und den Schritt in die alltägliche Anwendung noch nicht überwunden haben. Ein hohes Hintergrundrauschen, elektromagnetische Fremdsignale oder auch die Ablenkung des Nutzers durch eine Vielzahl unterschiedlicher Sinnesreize sind nur einige Aspekte, die sich auf die Funktion der BMI-Systeme negativ auswirken.
Aktuell stellt die Vision einer schnellen, intuitiven und präzisen Gedankenkontrolle und -steuerung von Computern und Maschinen noch Zukunftsmusik dar. Aufgrund der aktuellen Entwicklungen in der neurowissenschaftlichen Grundlagenforschung (Human Brain Project in Europa und BRAIN Initiative in den USA) wird es in den nächsten Jahren in der BMI-Technologie signifikante Fortschritte geben. Einen ersten Durchbruch hat jetzt die Universität von Kalifornien verkündet. Das Team von Joseph Makin hat eine Möglichkeit gefunden, die menschlichen Gehirnaktivitäten in Text zu übersetzen. Der von ihm entwickelte Algorithmus ist in der Lage, einen ganzen Satz über die Hirnaktivitäten der Testperson in einen geschriebenen Satz zu übersetzen. Der auf künstliche Intelligenz basierende Algorithmus nutzte die Hirnimplantate von Testpersonen und konnte die Hirnaktivitäten auslesen und diese interpretieren. Infolgedessen konnte die künstliche Intelligenz lernen, welche Hirnregion in welcher Reihenfolge und mit welcher Intensität aktiviert wurde, um einen vollständigen Satz zu erstellen. Anschließend war das Brain-Machine-Interface in der Lage, selbst Vokale und Konsonanten zu unterscheiden und mehrere Sätze zu bilden. Die Fehlerquote soll lt. Studie dem einer professionellen Sprachtranskription entsprechen.
Ein besseres Verständnis darüber, wie neuronale Signale erfasst, interpretiert und sogar beeinflusst werden können, wird disruptive Entwicklungen in der BMI-Technologie ermöglichen. Bidirektionale BMI-Systeme, die sowohl Informationen auslesen als auch Signale ins Gehirn einspeisen können, werden in Zukunft eine maschinenvermittelte Hirn-zu-Hirn-Kommunikation ermöglichen und einen Grad organisch-technischer Interaktion erschließen, der die Grenzen zwischen Mensch und Maschine verschwimmen lässt. Ob und in welchem Umfang dies tatsächlich Realität wird, ist nicht nur von der technologischen Entwicklung abhängig, sondern auch von der gesellschaftlichen Akzeptanz.
Brainfloating
B wie Brainfloating
Brainfloating ist der Oberbegriff für verschiedene Kreativitätstechniken, die Ende der 1980-er Jahre entwickelt wurden. Hierbei soll durch multisensorische Elemente das komplette Gehirn im kreativen Prozess angesprochen werden. Ausgangspunkt für die Entwicklung des Brainfloating-Prinzips war die ursprüngliche Annahme in der Hirnforschung, dass den einzelnen Gehirnhälften bestimmte Funktionen zugeordnet wurden wie z. B., dass die rechte Hirnhälfte für Kreativität und Intuition zuständig wäre und die linke für analytisches Denken und Sprache. Heute besteht in der Hirnforschung soweit Konsens, dass derartige ausschließlichen aufgabenspezifischen Zuweisungen nicht zutreffen. Auch wenn einzelne Aufgaben von der einen Hirnhälfte stärker repräsentiert wird als von der anderen, gibt es dennoch auch Bereiche, die beide Hemisphären gleichermaßen stark beanspruchen. Weiter besteht Konsens darüber, dass es Asymmetrien in der Aufgabenverteilung gibt. Somit sind die Hirnhälften je nach Funktion und Aufgabe unterschiedlich stark involviert. Dieses nutzt man in der Brainfloating-Technik, um das Gehirn zu aktivieren, damit klassische Denkmuster durchbrochen und neue Ideen entwickelt werden können. Elemente dieser Kreativitätstechnik können z. B. Bild-Text-Potenzierung, Creative Casting, Doppelkopf, Dreiklang, Formbildung, Lautmalerei, Simultanaktion oder Umpolung u. a. sein.
Business-Elf
B wie Business-Elf
Um das Zusammenspiel unterschiedlicher Fachbereiche und/oder Interessen innerhalb einer Organisation zu symbolisieren, wird gerne der Vergleich zu einem Orchester gezogen. Nur wenn die unterschiedlichen Musikinstrumente in Einklang gebracht werden, ergibt sich ein harmonisches Musikstück. Um das Zusammenspiel möglicher Gegensätze und Konsequenzen für Organisationen aufzuzeigen, hat sich das Modell der so genannten Business-Elf bewährt. Es hilft, den Perspektivwechsel vorzunehmen und sich in den Standpunkt eines Andersdenkenden hinein zu versetzen.
Die Business-Elf bedient gleich mehrere Aspekte. Zum einen symbolisiert sie, dass man als Unternehmen wie auch im Spitzensport nur gemeinsam erfolgreich sein kann oder der Misserfolg immer mehr als einen Verursacher hat. Zum anderen werden Unternehmen erfolgreich sein, wenn sich jeder einzelne Mitarbeiter mit seinem Unternehmen identifiziert, sich als Teamspieler versteht und dennoch genug Ehrgeiz hat, sein Team zu Höchstleistungen zu pushen und eigene Interessen hinten an zu stellen. Dies erfordert Managementkompetenzen und Führungsqualitäten.
Außerdem eignet sich die Business-Elf, um die unterschiedlichen Rollen und Kompetenzen der Fachbereiche eines Unternehmens zu vergleichen. Der Vertrieb z. B. in seinen unterschiedlichen Ausprägungen kann als Sperrspitze eines Unternehmens mit dem Stürmer einer Fußballmannschaft verglichen werden. Er ist für das Versenken der Bälle im gegnerischen Tor verantwortlich. Dafür braucht er Zuarbeit z. B. durch Marketing, Produktmanagement, Technischen Support, Forschung & Entwicklung, Innovationsmanagement oder Logistik. Das Marketing als Dreh- und Angelpunkt im Spielaufbau setzt aber nicht nur kreative Ansätze und Impulse für den Vorverkauf, sondern organisiert auch die „Abwehr“. Im übertragenen Sinne sind hiermit die Fachabteilungen im Backup gemeint (z. B. Produktion, Einkauf, Buchhaltung, Controlling, Recht und Compliance, IT und Datenmanagement usw.). Denn zu häufig wird noch unterschätzt, dass die beste Performance beim Kunden durch den Kollegen im Vertrieb wirkungslos bleibt, wenn nachgelagerte Abteilungen die Erwartungen des Kunden nicht erfüllen oder nicht in der Qualität, die der Vertrieb zugesagt hat. Aufgrund einer Vielzahl an Touchpoints muss die Customer Centricity über alle Unternehmensbereiche verinnerlicht und gelebt werden. Hier zählen auch die vermeintlich „kleinen“ oder „unwichtigen“ Dinge wie der Erstkontakt mit der Telefonzentrale oder die richtig ausgestellte Rechnung genauso wie die „unbequemen“ Dinge wie eine schnelle und unbürokratische Abwicklung einer Reklamation oder Beschwerde, die beim Kunden nachhaltig das Markenbild prägen – positiv wie negativ. In einer gut funktionierenden Organisation kennt jeder Fachbereich seine Rolle und Kompetenzen und konzentriert sich darauf, Höchstleistungen im Sinne der Unternehmensstrategie zu bringen. Ein permanentes Einmischen in andere Bereiche und/oder das Absprechen von Kompetenzen sind deutliche Hinweise auf eine schlechte Unternehmenskultur.
Erfolgreiche Fußballmannschaften sind auf allen Positionen sehr gut und doppelt besetzt. Auch in diesem Punkt kann sich die Wirtschaft viel aus dem Spitzensport abschauen. Und letztendlich kann mit dem Modell der Business-Elf der Unterschied zwischen Vision, Strategie und Taktik erklärt werden. Ein Beispiel: eine Mannschaft spielt in der zweiten Liga im oberen Tabellenbereich und nimmt sich vor, in den nächsten 10 Jahren Deutscher Meister zu werden – dies wäre die Vision. Die Vision ist das übergeordnete und unverrückbare Ziel, das in den nächsten 10 Jahren angestrebt wird. Die Strategie beinhaltet grundlegende Entscheidungen, wie diese Vision erreicht werden soll. Denn neben einer intensiven Nachwuchsarbeit, die eher längerfristig ausgelegt ist, wäre die Alternative, Top-Spieler aus anderen Vereinen zu engagieren. Dieser Weg ist meist kurzfristig möglich, schwächt andere Teams (Wettbewerber) und ist allerdings mit hohen Kosten verbunden. Die Strategie beinhaltet auch das Spielsystem, mit dem eine Mannschaft agieren möchte. Hierfür müssen Spielphilosophie des Trainers und die vorhandenen Spielerqualitäten zusammenpassen, anderenfalls die geeigneten Spieler eingekauft und der richtige Trainer engagiert werden, damit im Training das Spielsystem allen Mannschaftsteilen vermittelt wird. Die individuelle Mannschaftsaufstellung ist geprägt von der Stärke des Gegners sowie ggf. verletzungsbedingten Ausfällen in der eigenen Mannschaft. Dies wiederum ist die Taktik, die sich von Spieltag zu Spieltag ändern kann. Mit taktischen Maßnahmen können im Einzelfall auch mal Defizite in der Strategie kompensiert werden, dauerhaft allerdings nicht. In dem Fall müsste die Strategie angepasst werden. Und wie im Fußball wird der Grundstein für den Erfolg im permanenten Training gelegt. Erfolgreiche Mannschaften trainieren Spielzüge, Freistoßvarianten, Positionswechsel und entwickeln somit eine Routine zwischen den Spielern. Spitzenteams zeichnet darüber hinaus aus, dass sie blitzschnell auf Veränderungen im Spiel reagieren können. Sei es durch einen verletzungsbedingten Ausfall oder die Sperre eines eigenen Spielers oder die geänderte Spielweise durch Einwechslung eines gegnerischen Spielers.
Alle diese Erfahrungen aus dem Spitzensport lassen sich auf Unternehmen übertragen. Erfolgreiche Unternehmen trainieren keine Spielzüge, haben aber funktionierende Prozesse. Sie üben auch keine Freistoßvarianten, führen aber Produkte ein, Verkaufsaktionen durch oder bieten Services und Dienstleistungen mit Mehrwert an. Den Positionswechsel im Sport kann man in der Wirtschaft mit Marktveränderungen gleichsetzen, ob nun durch das veränderte Verhalten des Wettbewerbs, der Bedarfs- und Zielgruppen oder durch Einflüsse aus Politik, Gesetzgebung oder normativen Vorgeben etc. Auch für die egoistischen Spieler im Sport gibt es in Unternehmen Vergleiche in Form von Einzelkämpfern. Diese können Leistungsträger sein und ein Team pushen oder auch Egoisten, die sich nicht an Prozessen beteiligen. Hier haben Führungskräfte die gleiche Aufgabe wie Trainer im Fußball: dies zu erkennen und durch Training im Team, Mannschaftsbesprechungen z. B. über die Taktik oder Einzelgespräche mit betroffenen Spielern (Mitarbeitern) abzustellen. Ansonsten agieren Unternehmen hektisch, improvisieren den Geschäftsalltag und sind unstrukturiert. Die Arbeitsweise ähnelt in dem Fall eher der Hektik und dem Prinzip Zufall, wie man es vom Tischfußball kennt.
Business Model Innovation
B wie Business Model Innovation
Innovationen werden in vielen Unternehmen noch mit der technischen Entwicklung von Produkten gleichgesetzt oder auf diese reduziert, obwohl Prozessinnovationen, Verfahrensinnovationen, Serviceinnovationen, Vertriebsinnovationen und/oder Geschäftsmodellinnovationen den Innovationsbegriff in den letzten Jahren deutlich erweitert haben. Der Begriff Business Model Innovation dagegen bezeichnet erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur Entwicklung der o. g. unterschiedlichen Innovationsarten geht es bei Business Model Innovation vor allem um die Monetarisierung von Produkt-, Service- oder Geschäftsmodellinnovationen. Zentrale Aufgabe besteht darin, wie Nutzen und Mehrwert aus Kundensicht generiert werden, innovative Vertriebswege umgesetzt und neue Modelle zur Monetarisierung eingeführt werden. Dem entsprechend umfasst Business Model Innovation auch Marketing (Formulierung einer innovativen Value Proposition), Vertrieb und Vertriebsmodell sowie die Monetarisierung. Auch die Veränderung einer Monetarisierung wie z. B. ein Miet- oder Leasingmodell anstatt wie bisher der Kauf eines Produktes oder einer Dienstleistung kann in bestimmten Märkten oder Segmenten eine Business Model Innovation darstellen.
Business Transformation
B wie Business Transformation
Unter dem Begriff Business Transformation versteht man eine fundamentale Neuausrichtung des eigenen Geschäftsmodells und somit die Veränderung im wirtschaftlichen und gesellschaftlichen Umfeld eines Unternehmens. Infolgedessen werden mehr oder weniger alle Beziehungen eines Unternehmens neu definiert. Hierbei unterscheidet man vier Varianten:
- Reframing: beschreibt die strategische Neuausrichtung der Positionierung von Unternehmen. Purpose und Markenkern werden verändert
- Restructuring: beschreibt die Restrukturierungsmaßnahmen im Unternehmen zur Verbesserung der Wettbewerbsposition
- Revitalizing: beschreibt den Prozess des Wachstums durch Revitalisierung. Hierbei geht es um eine Rückbesinnung und Fokussierung der ursprünglichen Kernkompetenzen
- Renewing: beschreibt die Neupositionierung durch eine Erneuerung, in dem die Organisation zu neuen Kompetenzen befähigt wird.
Business Wargaming
B wie Business Wargaming
Business Wargaming ist eine dynamisch strategische Simulationsmethode, mit der externe Einflüsse wie zukünftige Marktentwicklungen oder dynamische Veränderungen im Verhalten von Kunden und Wettbewerbern veranschaulicht werden. Gerade durch die agilen und dynamischen Geschäftsmodelle im Umfeld von Startups gewinnen zukunftsgerichtete Simulationsmethoden wie Business-Wargaming an Bedeutung. Die Betrachtung von längeren Zeiträumen, wie dies gerade bei Szenario-Analysen oft gemacht wird, ist oft nicht zielführend. Kürzere Zeiträume spiegeln die Situation volatiler Märkte besser wider. Der martialische Name (im deutschen „Kriegsspiel“) hat seinen Ursprung in der Militärplanung, bei der es um die umfassende Analyse des Umfeldes und dem Durchspielen von Simulationen geht, mit denen Erkenntnisse für den Ernstfall gewonnen werden. Das älteste Wargame wurde lt. Überlieferung vor über 5.000 Jahren durch den chinesischen General und Militärphilosophen Sun Zi entwickelt. In diesem ging es darum, als Erster den Spielgegner zu umzingeln. Schon damals war es die vorherrschende Philosophie, einen militärischen Konflikt durch eine Einkesselungsstrategie erfolgreich zu lösen. Weitere Spiele, die einen Konflikt als Ausgangssituation haben, sind z. B. das japanische Go, das koreanische Baduk oder das indische Chaturanga. In Europa dürfte das ursprünglich aus Persien stammende Schach das bekannteste Spiel dieser Art sein. Militärforscher gehen davon aus, dass der Einsatz von Wargames einen nicht unerheblichen Anteil am Aufstieg Preußens zur europäischen Großmacht hatte. Denn diese Methode wurde zunächst zur Ausbildung und später zur Entwicklung von Kriegsstrategie und -taktik eingesetzt. Wargames wurden genutzt, um Reaktionen der Gegner zu antizipieren und dadurch selbst durchdachter und auf strategischer Ebene proaktiver handeln zu können. Seit Mitte des 20. Jahrhunderts wird die Wargaming-Methode auch im ökonomischen Kontext eingesetzt. So entwickelte die „American Management Association“ 1956 die „Top Management Decision Simulation“, die heute als das erste ökonomische Planspiel gilt. Zwei Jahre später entwickelte die renommierte Harvard Universität eine Wargaming-Methodik im ökonomischen Umfeld.
Aus den, mit mehreren Spielparteien simulierten, „Was-wäre-wenn“-Szenarien können Wechselwirkungen von zukünftigen Handlungen abgeschätzt werden. Das Ergebnis eines Business Wargames kann eine robustere Strategie, eine verbesserte Reaktionsfähigkeit oder ein komplett neues Geschäftsmodell sein, siehe auch →Kill the Company. Während sich klassische Planspiele in der Regel auf einer operativen Ebene bewegen, setzen sich Business Wargames mit strategischen Optionen auseinander. Typische Anwendungen sind neue Geschäftsmodelle oder der Eintritt in neue Märkte, die Positionierung von Pricing-Strategien oder die Einführung von Innovationen. Auch bei der Suche nach strategischen Allianzen im Markt sind Methoden aus dem Business-Wargaming geeignet. Sie sind das ideale Werkzeug im Risikomanagement.
Buyer Personas
B wie Buyer Personas
Um Strategien, Konzepte oder Kampagnen auf eine bestimmte Gruppe von Menschen auszurichten, wurde früher der unscharfe und dehnbare Begriff der „Zielgruppe“ verwendet. Dieser Begriff stand mal für das Gesamtpotenzial eines Marktes, dann wiederum nur für die Menge in einem Teilmarkt (Branche) oder auch für eine spezifische Gruppe aus einer Marktsegmentierung. Weiterhin wurde der Begriff unsauber verwendet in der Ansprache von Kunden oder Bedarfsgruppen oder auch potenziellen Neukunden. Ausgewählt wurden diese nach unterschiedlichen Kriterien. Dies kann nach soziodemografischen Faktoren wie z. B. Alter, Geschlecht, Generation, Bildung, Kaufkraft usw. erfolgen oder nach Handlungen wie z. B. Neukunde, wiederkehrender oder langjähriger Bestandskunde. Auch psychologische Merkmale oder die Informations- und Kommunikationskanäle können heran gezogen werden.
Nicht erst durch die viel zitierten statistischen Zwillinge Prinz Charles und Ozzy Osborne ist bekannt, dass eine Zielgruppenbeschreibung für Marketing, Vertrieb und Produktmanagement viel zu ungenau und unspezifisch ist. Infolgedessen werden heute zunehmend Buyer Personas eingesetzt, die sehr viel konkreter und spezifischer sind, als es Zielgruppen jemals sein können. Hierbei handelt es sich um eine auf empirischen Informationen, gezielter Recherche, qualifizierter Marktforschung und echten Kundenangaben und -daten erstellte reale Nutzerbeschreibung (Kunden-Avatar), die das unspezifische Bild einer Zielgruppe durch tiefgründiges Hintergrund- und Detailwissen ablöst. Durch die Anwendung von Buyer Personas ändert sich die grundsätzliche Haltung von Unternehmen in ihrer Kundenbeziehung. Man „zielt“ nicht auf seine Kunden, sondern kennt ihre Bedürfnisse, Erwartungen und Herausforderungen, um spezifische und relevante Angebote darauf abzustimmen. Kundenfokus und -zentrierung bekommt ein konkretes Gesicht zu einer echten Person und keine fiktive und abstrakte Beschreibung einer unspezifischen Gruppe. In Folge dessen sind Produkt- und Kundenkommunikation besser aufeinander abgestimmt und sind eindeutiger, zielgerichteter und effektiver. Egal, ob neue Website, neues Verpackungskonzept, ein bevorstehender Markenlaunch, Kampagnen und Promotion-Aktionen oder die strategische Sortimentsausrichtung: nur wer eine hohe Kundenempathie hat, kennt die Bedürfnisse, Erwartungen und Herausforderungen seiner Kunden und kann relevante Angebote zum richtigen Zeitpunkt auf dem geeigneten Kanal und im gewünschten Format anbieten.
C wie CaaS (Containers-as-a-Service)
C wie CaaS (Containers-as-a-Service)
CaaS ist ein Akronym für Containers-as-a-Service und beschreibt ein Geschäftsmodell, bei dem Anbieter von →Cloud-Computing-Plattformen komplette Containerumgebungen inklusive Dienstleistungen zur Verfügung stellen. Zu den containerbasierten Virtualisierungen sowie skalierbaren Dienstleistungen und Services gehören u. a. Orchestrierungstools (auch Orchestrator genannt), eine Reihe von Entwickler-Tools und APIs (Application Programming Interfaces bedeutet Programmierschnittstellen), einen Image-Katalog (die so genannte Registry), eine Cluster-Management-Software sowie die zugrunde liegenden Infrastruktur-Ressourcen. Dabei werden einzelne Anwendungen inklusive aller Abhängigkeiten wie z. B. Bibliotheken und Konfigurationsdateien als gekapselte Instanzen ausgeführt. Dies ermöglicht den Parallelbetrieb mehrerer Anwendungen mit unterschiedlichen Anforderungen auf ein und demselben Betriebssystem und/oder ein Deployment über unterschiedliche Systeme hinweg. Als Containerdienst bezeichnet man den Service eines Anbieters, Software in so genannten Anwendungscontainern zu entwickeln, zu testen, auszuführen oder über IT-Infrastrukturen hinweg zu verteilen. Somit können Anwender Containerdienste in Anspruch nehmen, ohne die dafür benötigte Infrastruktur selbst aufbringen zu müssen. Im Gegensatz zum PaaS-Modell, bei dem sich Software-Entwickler auf die vom Anbieter zur Verfügung gestellten Technologien wie Programmiersprachen oder Frameworks festlegen müssen, bietet Container-as-a-Service dagegen eine vergleichsweise freie Programmierplattform, auf der sich in Containern gekapselte Anwendungen unabhängig von ihren technologischen Anforderungen und Voraussetzungen über heterogene IT-Infrastrukturen hinweg skalieren lassen. Die Bezeichnung ist noch relativ jung und orientiert sich an etablierten →Cloud-Service-Modellen wie →Infrastructure-as-a-Service (IaaS), →Platform-as-a-Service (PaaS) oder →Software-as-a-Service (SaaS). Caas kann in dieser klassischen Aufteilung zwischen IaaS und PaaS eingeordnet werden. Von diesen etablierten Service-Modellen hebt sich Container-as-a-Service jedoch durch einen grundsätzlich anderen Virtualisierungsansatz ab: die Container-Technologie. Die Abrechnung erfolgt nutzungsbezogen im Mietmodell.
C wie Canonical Tag
Ein Canonical Tag ist in der Regel im Header (Kopfzeile) einer Webseite als Quellcode hinterlegt. Dieser wird eingesetzt, um Webseiten mit doppeltem Inhalt (Duplicate Content) richtig auszuzeichnen – also einen Hinweis auf die Originalquelle zu setzen. Diese Ursprungsseite wird auch als die „kanonische“ Seite bezeichnet. Hierzu wird der Quelltext mit dem Attribut rel=“canonical“ gekennzeichnet. So verlinkt man von einer oder mehreren Kopien einer Webseite auf das Original und vermeidet somit, dass man von Suchmaschinen wie z. B. Google „abgestraft“ wird. Nicht im rechtlichen Sinn, sondern durch ein schlechteres Ranking. Der Canonical Tag kommt immer dann zur Anwendung, wenn Inhalte mehrfach verwendet werden „müssen“ z. B. in verschiedenen Landingpages, Blogs, in Shopsystemen, digitalen Katalogen oder Plattformen usw. Scannt ein Crawler eine Webseite und findet darauf einen Canonical Tag, erkennt der Bot, dass die verlinkte Seite das „eigentliche“ Original ist, die „kopierten“ Webseiten also im Hinblick auf Duplicate Content ignoriert werden können. Wichtig ist hierbei, dass innerhalb dieses Quellcodes keine Meta-Tags wie „nofollow“, „disallow“ oder „noindex“ vergeben werden. Außerdem werden durch Suchmaschinen Eigenschaften wie z. B. PageRank auf das Original übertragen. Somit ist der Canoncial Tag ein wichtiges Werkzeug für die OnPage Optimierung und zur Vermeidung von Fehlern in der Bewertung von Inhalten.
C wie CAPTCHA
CAPTCHA ist ein Akronym für Completely Automated Public Turing test to tell Computers and Humans Apart und beschreibt ein Sicherheitsmechanismus zur Unterscheidung von Mensch und Maschine. Es handelt sich um einen so genannten Challenge-Response-Test, bei denen der Nutzer eine einfache Aufgabe (Challenge) lösen muss und das Ergebnis (Response) zurückschickt. Sinnvollerweise sind die gestellten Aufgaben für Menschen einfach zu lösen, hingegen für Computer sehr schwierig oder unlösbar. Neben einfachen Rechenaufgaben, einem Code oder einer einfachen Frage, die korrekt eingegeben werden müssen, werden auch Bilder verwendet oder mittlerweile Audio-Captchas oder Video-Captchas. Somit soll herausgefunden werden, ob die Interaktion mit einem Mensch oder einer Maschine (Computer, Roboter, Bot) stattfindet. Captchas schützen die Ressourcen und dem Schutz des Anbieters oder Betreibers und nicht, wie vielfach angenommen wird, dem Schutz des Benutzers oder dessen Daten. Im Unterschied zum klassischen →Turing-Test, bei dem Menschen die Frage klären, ob sie mit einem Mensch oder einer Maschine interagieren, dienen Captchas dazu, diese Frage durch eine Maschine beantworten zu lassen. Captcha müssen schnell erweitert oder ständig umgeschrieben werden, da man einem Spambot die Logik antrainieren kann. Durch die zunehmende technische Eskalation der immer intelligenter werdenden Algorithmen stellen Captchas perspektivisch das Problem dar, dass diese auch für den Menschen immer schwieriger zu lösen sein werden. Gelegentlich werden Verfahren zur Unterscheidung von Menschen und Maschinen oder Robotern auch als HIP (engl. Human Interaction Proof) bezeichnet.
C wie CAS (Computer Aided Selling)
CAS ist ein Akronym für Computer Aided Selling und beschreibt computergestützte Informations- und Kommunikationssysteme für den Vertrieb (Innen- und Außendienst) sowie Instrumente und Methoden zur Vertriebsunterstützung und -steuerung. CAS werden eingesetzt, um Vertriebsprozesse effizienter und systematisierter zu gestalten und Verkaufsabschlüsse zu erhöhen. Hierzu zählen Hard- und Software sowie die Übertragung der gewonnenen Informationen zum Innen- und/oder Außendienst. Sie dienen u. a. zur Vorbereitung und Nachbereitung von Kundengesprächen, zur Unterstützung bei Verkaufsgesprächen, der Verwaltung von Angeboten, Aufträgen und weiteren Kundeninformationen, der Kommunikation mit dem Kunden sowie internen Fachabteilungen sowie der Steuerung, Tätigkeits- und Ergebniskontrolle.
Computer Aided Selling wurde erstmals 1993 im Zusammenhang mit Database-Marketing erwähnt und ist heute besser bekannt unter dem Begriff →Customer Relationship Management (CRM) oder gelegentlich auch unter Sales Force Automation (SFA).
C wie Chatbot
Der Begriff Chatbot setzt sich aus dem Verb „to Chat“ (sich unterhalten) und „Robot“ (Roboter) zusammen und ist vereinfacht ausgedrückt ein Roboter, mit dem man sich unterhalten kann. Das Ökosystem aus Technologie und Features dahinter ist allerdings deutlich komplizierter und das Thema Chatbot sehr vielschichtig und komplex. Das technische Dialogsystem ermöglicht den Dialog zwischen Mensch und Maschine und bündelt alle Informationen in einem einzigen Kanal, um die Interaktion mit dem User zu bearbeiten. Die Konversation erfolgt über gesprochenen oder geschriebenen Text. Ein Chatbot bietet dabei immer eine Option der Spracheingabe und -ausgabe, in der Regel mittels eines so genannten Chat-Widgets. Leider ist der Begriff Chatbot in den letzten Jahren zu einem Buzzword in der digitalen Welt verkommen, weil sich viele unspezifische Angebote mit diesem Begriff schmücken und/oder unterschiedliche Varianten synonym verwendet werden. Dabei können bereits kleine technische Änderungen einen großen Unterschied bewirken.
In der Regel werden Chatbots auch als virtueller Assistent bezeichnet und in Verbindung mit einem Avatar auf einer Website oder Messaging-Plattform angeboten, um dort auf Anfragen von Nutzern z. B. zu Produkten, Leistungen oder Services zu reagieren. Ein Chatbot funktioniert entweder auf der Basis von definierten Regeln (auch regelbasiert genannt) oder auf Basis künstlicher Intelligenz. Regelbasierte Chatbots greifen auf ein Regelwerk (auch Expertensystem) von definierten Fragen und Antworten zurück. Daher ist dieser digitale Assistent (auch Klick-Bots genannt) nur bei einfachen und standardisierten Prozessen empfehlenswert.
Intelligente Chatbots basieren meist auf künstlicher Intelligenz und Natural Language Processing und können die Daten aus existierenden Dialogen nutzen, um sich weiter zu entwickeln. Hierbei erkennt das System auch hinter langen oder komplexen Informationen die semantischen Zusammenhänge und nutzt NLP, um die Intention des Nutzers und den Inhalt der Frage zu verstehen. Dadurch können diese Chatbots Verknüpfungen erstellen und somit auch anspruchsvolle und komplexe Dialoge führen. NLP dient der maschinellen Verarbeitung natürlicher Sprache. Das Ziel ist eine intelligente Konversation, wie von einem Menschen geführt, durch künstliche Intelligenz zu imitieren. Hierfür nutzt die KI Methoden aus dem Deep-Learning. Die zwei wichtigsten KI-Prinzipien sind das Reassuring und das Dreaming. Mit Reassuring sind intelligente Rückfragen gemeint. Ist sich ein intelligentes Chatbot nicht sicher, welches Themenfeld mit der Frage gemeint ist, stellt es dem Nutzer eine Rückfrage. Je nach Antwort schärft die KI das Themenfeld und lernt somit mit jeder Anfrage dazu. Somit kann ein intelligentes Chatbot auch Antworten auf vorher nicht gestellte Fragen geben oder eine falsche Fragestellung korrigieren.
Anwendungsspezifische Chatbots mischen regelbasierte und intelligente Dialogsysteme und werten diese durch grafische Oberflächen auf. Mit ihnen wird die Usability und User Experience verbessert.
C wie Churn Prediction Analysis
Neukundengewinnung ist für Unternehmen je nach Branche und Sortiment mit einem Faktor 2 bis 4 mal teurer als Bestandskundenpflege. Die Abwanderung von Kunden ist deshalb für Unternehmen in doppelter Hinsicht mit finanziellen Verlusten verbunden (Umsatz und Gewinn sowie Mehraufwand). Je höher die Zahl der Kunden und somit die Churn Rate ist, die einem Unternehmen den Rücken kehren, umso spürbarer sind die wirtschaftlichen Auswirkungen. Churn Prediction (Abwanderungsvorhersage) ist eine Vorausanalyse und untersucht, bei welchen Kunden das Risiko einer Abwanderung besteht. Dadurch sollen rechtzeitig Indikatoren geliefert werden, um durch gezielte Maßnahmen einer Abwanderung entgegen zu wirken. Diese Analyse ist ein zentrales Element in jeder Vertriebs- und CRM-Strategie. Insbesondere für Geschäftsmodelle, bei denen Abonnements oder Verträge abgeschlossen werden wie z. B. im →Software as a Service (SaaS) Bereich, der Energieversorgung, im Banken- und Versicherungswesen, in der Telekommunikation oder Streamingdienste usw. ist die Vermeidung von Kundenfluktuation essenziell. Churn Prediction Analysis nutzt Kundendaten und Simulationen und basiert auf den Algorithmen maschinellen Lernens und Künstlicher Intelligenz. Somit können effektive und effiziente Voraussagen über mögliche Abwanderungen getroffen und durch eine pro-aktive Churn Management Strategie vorher Maßnahmen ergriffen werden. Dies beugt nicht nur der Fluktuation von Kunden vor, sondern spart auch Budget für die Rückgewinnung ehemaliger Kunden.
Herzstück der Churn Prediction Analysis sind die Ursachen für mögliche Abwanderungsgedanken. Hierbei wird differenziert, ob es sich um Einzelkunden oder Kundensegmente, Kunden eines speziellen Sortimentes oder einer Region und dgl. handelt. Parallel wird das Wettbewerbsverhalten analysiert, um Kausalitäten herzustellen. Alle Frühindikatoren möglicher Kundenabwanderungen dienen der Churn Prediction Modell Interpretation. Für diese können so genannte Shapley Values abgeleitet werden, so dass Modelle besser beschrieben und einfacher erklärt werden. Reine Daten liefern nur die Grundlage; erst die Bewertung und Interpretation lassen generelle Ursachen für Fluktuation oder individuelle Gründe für eine Kündigung erkennen. Um einen Churn Prediction Score zu erstellen, braucht man spezifische Kundendaten und insbesondere Verhaltensweisen, die in der Regel in einem herkömmlichen CRM nicht gepflegt werden. Neben den demographischen Daten gehören hierzu die Nutzungsdaten, Verhaltensdaten, Transaktionshistorie, Interaktion mit dem Kundenservice, Außen- oder Innendienst.
C wie Clean Code
Clean Code ist ein Begriff aus der Softwareentwicklung und beschreibt eine logische, verständliche, nachvollziehbare und disziplinierte Implementierung eines Codes. Das Ziel besteht darin, die Software effizient und effektiv zu entwickeln und den Code dabei so zu gestalten, dass er leicht zu lesen, zu ändern, zu erweitern und zu warten ist. Ein Clean Code ist in der Praxis nicht selbstverständlich, denn auch „unsaubere“ Codes können funktionieren. Allerdings führen diese vermehrt zu Fehlern bei Adaptionen oder Problemen bei Erweiterungen. Um dies zu vermeiden wird zunächst eine Analyse durchgeführt (Clean Analysis) und anschließend das Design aufgesetzt (Clean Design). Auch wenn der Aufwand zur Implementierung eines Clean Code initial höher ist, amortisiert sich dieser über den Lebenszyklus der Software. Infolgedessen ist ein Clean Code nicht nur technologisch nachhaltig, sondern auch ökonomisch sinnvoll.
C wie Closed Innovation
Closed Innovation unterscheidet sich von →Open Innovation durch die Art und Weise, wie und wo Innovationen entstehen. Während Closed Innovationen in einem in sich geschlossenen Unternehmensumfeld entwickelt werden, beziehen Open Innovationen externes Wissen und Know-how in das Innovationsmanagement mit ein. Auch wenn die Entwicklung zur offenen Variante tendiert, gibt es gute Gründe für geschlossene Innovationen. Eine der wichtigsten ist der Komplexitätsgrad von Innovationen. Ist dieser besonders hoch, bieten sich Closed Innovation an. Diese stellen nicht nur den Zugriff auf das Know-how sicher, sondern auch auf die Prozesshoheit. Wenn eingesetzte Technologien eng miteinander verknüpft sind, bergen Open Innovation gewisse Risiken, so dass auch in diesem Fall der Closed Innovation der Vorzug gegeben wird. Einflüsse von außen könnten nicht nur dem Innovationsprozess schaden, sondern ggf. auch der aktuellen Produktpalette. Ein Paradebeispiel für Closed Innovation ist Apple mit seinem hochintegrierten und aufeinander abgestimmten Ökosystem. Closed Innovation ist auch dann die bevorzugte Variante, wenn eine Innovation disruptiven Charakter hat und grundlegende technologische Verbesserungen hervorbringt, durch die ein Unternehmen einen USP erzielt und eine echte Differenzierung und einen Wettbewerbsvorteil schafft. Weitere Gründe für Closed Innovation sind zum einen Branchen mit hoher Wettbewerbsdichte und einem intensiven Wettbewerb. Und zum anderen, wenn Innovationskraft, Know-how und Lösungskompetenz im Unternehmen vorhanden sind, so dass das Hinzuziehen externer Kompetenzen nicht notwendig ist. Von der Ideengenerierung über die Entwicklung bis hin zur Vermarktung erfolgt der Innovationsprozess ausschließlich im Unternehmen. Innovationen werden nur innerhalb klar definierter Grenzen des Unternehmens entwickelt. Wissen und Know-how, Technologie und Prozesse bleiben unter Kontrolle des innovierenden Unternehmens. Um geschlossene Innovationen erfolgreich umsetzen zu können, müssen Unternehmen nicht nur höchstqualifizierte Mitarbeiter beschäftigen und einen hochprofessionellen Innovationsprozess aufsetzen, sondern das eigene geistige Eigentum entsprechend schützen. Closed Innovation und Open Innovation können in einigen Fällen auch komplementären Charakter haben.
Der Begriff Closed Innovation geht auf Henry Chesbrough, Professor und Executive Director am Center for Open Innovation an der UC Berkeley zurück, der diesen Begriff erstmals 2003 in seinem Buch „Open Innovation: The new imperative for creation and profiting from technology“ erwähnte. Die Wurzeln der geschlossenen Innovation gehen allerdings auf den Anfang des 20. Jahrhunderts zurück, als z. B. Universitäten noch nicht an der kommerziellen Verwertung von Wissenschaft beteiligt waren. Die gesamte Nachkriegszeit bis in die 1990-er Jahre war von geschlossenen Innovationen geprägt und gilt als die Ära der internen Forschung und Entwicklung. Der Aufbau interner F&E-Ressourcen wurde als einer der entscheidenden Wettbewerbsvorteile gesehen. Aus dieser Zeit stammt auch der Begriff „Not Invented Here“-Syndrom, das die Geisteshaltung von Unternehmensführungen ganz gut beschreibt.
C wie Cloud Computing
Cloud Computing, oft auch nur als „die Cloud“ bezeichnet, beschreibt ein Modell, bei dem bei Bedarf zeitnah geteilte Computerressourcen als Dienstleistung bereitgestellt und nach Nutzung abgerechnet werden. Diese Bereitstellung erfolgt in Form von Rechenzentren, Servern, Datenspeicher oder Applikationen, in der Regel über das Internet und geräteunabhängig. Das Angebot sowie Art und Umfang der Nutzung dieser Computerressourcen ist definiert und erfolgt in der Regel über eine Programmierschnittstelle (API) bzw. für Anwender über eine Website oder App. Infolgedessen werden die Daten nicht lokal auf dem eigenen Computer oder Server abgelegt, sondern befinden sich an einem beliebigen anderen Ort, der oft mit einer Datenwolke („Cloud“) illustriert wird. Die Vorteile sind flexible, skalierbare Ressourcen, die schnell und einfach an den Bedarf angepasst werden können sowie ein nutzungsabhängiger Service, bei dem nur die tatsächlich genutzten Ressourcen bezahlt werden.
Beim Cloud Computing wird zwischen verschiedenen Konzepten unterschieden:
- bei „Infrastructure-as-a-Service“ (IaaS) können Nutzer über das Internet direkt auf einzelne virtuelle Ressourcen zugreifen wie z. B. Netzwerkkomponenten, Server oder Speicher.
- „Software-as-a-Service“ (SaaS) erlaubt es Nutzern, Software-Anwendungen über das Internet zu nutzen, ohne diese auf dem eigenen Computer zu installieren.
- „Platform-as-a-Service“ (PaaS) ist vor allem für Entwickler interessant, die gemeinsam Programme über das Internet entwickeln und anbieten wollen.
C wie Cobots
Kollaborative Roboter oder Cobots (Abkürzung des englischen Begriffs „collaborative robot“) bekommen eine immer größere Bedeutung. Herkömmliche Industrieroboter werden in immer mehr Bereichen der Industrie durch kollaborative Roboter ersetzt oder erweitert. Cobots kommen in Zusammenarbeit mit Menschen im Produktionsprozess zum Einsatz und sind dabei nicht mehr wie der typische industrielle Roboter durch Schutzeinrichtungen von ihren menschlichen Kollegen getrennt. Sie sind im Vergleich zu traditionellen Industrierobotern kompakter, flexibler einsetzbar und leichter zu programmieren. Dabei ersetzen Cobots nicht die Arbeitsplätze des Menschen, sondern ergänzen diese. Die Unternehmensberatung Boston Consulting Group geht davon aus, dass der Einsatz von Cobots die Produktivität pro Mitarbeiter zukünftig um bis zu 30 Prozent steigern wird.
C wie Co-Creation
Co-creation ist eine Innovationsmethode, bei der Unternehmen Externe wie z. B. Lieferanten, Kunden, Experten aus Forschung und Entwicklung oder Partnerunternehmen durch Kollaboration in den Entwicklungsprozess von Produkt-, Prozess-, Service-, Vertriebs- oder Geschäftsmodellinnovationen mit einbeziehen. Co-creation und Open Innovation werden häufig synonym verwendet, obwohl Open Innovation noch einen Schritt weiter geht und die Öffnung des Innovationsprozesses und -managements beschreibt.
C wie Cognitive Computing
Individualisierung und Personalisierung ist einer der Megatrends. Im Zuge dessen passen sich Maschinen immer mehr dem Menschen an. Cognitive Computing verfolgt den Ansatz, dass digitale Technologien wie das menschliche Gehirn funktionieren. Kognitive Systeme sind, im Gegensatz zu heutigen Standardtechnologien, mit künstlicher Intelligenz wie Deep Learning oder Data Mining ausgestattet. Maschinen lernen von ihren Anwendern und entwickeln sich kontinuierlich weiter, um menschliche Lern- und Denkprozesse zu simulieren. Das Ziel ist, auf Basis von Daten aus der Vergangenheit eigene Lösungen für die Gegenwart und Strategien für die Zukunft zu entwickeln. Kognitive Systeme sind im Vorfeld nicht auf konkrete Problemlösungen programmiert, sondern lernen selbstständig durch die gemachten Erfahrungen und gesammelten Daten. Sie entwickeln eigene Lösungen und Strategien durch die Analyse der Datenbasis. Diese Systeme interagieren in Echtzeit mit ihrem Umfeld und verarbeiten große Datenmengen. Hierfür wurden spezielle Chips entwickelt, die sich am menschlichen Gehirn orientieren. Mit ihrer Unterstützung werden kognitive Prozesse nachgebildet und Computer anpassungsfähiger. Diese komplexe Hardware und die Interfaces machen den Unterschied zu klassischen Anwendungen künstlicher Intelligenz aus. Kernkomponenten des Cognitive Computing sind Algorithmen des maschinellen Lernens, die die vorliegenden Daten kontinuierlich nach Mustern untersuchen und ihre Analysemethoden ständig verfeinern. Wichtig ist, dass beim Cognitive Computing sämtliche Informationen in ihrem Kontext wahrgenommen werden. Hierzu gehören kontextbezogene Merkmale wie z. B. Zeit, Ort und Personen, die die Bedeutung von Informationen beeinflussen. Zum Einsatz kommen text-, sprach- oder gestenbezogene Eingaben.
C wie Cogs
Cogs sind Anwendungen des →Cognitive Computing. Sie verstehen Sprache und erkennen in einem Satz das Subjekt, Prädikat und Objekt. Cogs durchforsten bei Fragestellungen das Internet und suchen parallel nach Pro und Contra, nach Antworten und deren subjektiver Bewertung durch User. Über Spracherkennung können Algorithmen zur Stimmung des Users abgeleitet werden, um eine Aussage in ihrer Subjektivität beurteilen zu können. Informatiker sprechen von Ontologien.
Während bisherige Apps nur in der Lage waren, Texte zu erkennen und zu analysieren, beginnen Cogs damit, Hypothesen aufzustellen und diese mit Wahrscheinlichkeiten zu gewichten. Die eigentliche Weiterentwicklung beginnt erst, wenn die Ergebnisse mit richtig oder falsch bewertet werden. Cogs sind in der Lage, unsinnige Fragen zu erkennen und weichen nicht durch eine „vorprogrammierte“ Standardantwort aus, wie dies häufig bei digitalen Sprachassistenten der Fall ist. Sie erlauben sich, auch mal auf eine Frage mit „Bullshit“ zu antworten, wie Watson 2013, als ihm eine bewusst unlogische Übungsfrage gestellt wurde.
Cogs sind auf gutem Weg, Verknüpfungen zwischen Nervenzellen und somit das Denken zu simulieren. Sie finden mit der Zeit autonom heraus, ob ihnen gelieferte Informationen helfen. Daher ist es auch weniger kritisch, ob ihnen „gute oder schlechte Daten“ zur Verfügung gestellt werden. Durch dieses Feedback minimieren Cogs ihre eigene Fehlerquote und perfektionieren sich selbst – der Beginn der so genannten Superintelligenzen. Möglich sind alle diese Entwicklungen, da die Cogs beginnen, die menschlichen Sinne zu imitieren. Wissenschaftler arbeiten bereits daran, ein Backup des menschlichen Gehirns auf dem Computer abzuspeichern, um Verknüpfungen (Synapsen) aus Logik und Intuition herzustellen.
Mögliche Einsatzgebiete und Anwendungen sind gigantisch. Erste Ansätze dienen z. B. zur Analyse von Schlafstörungen und Depressionen oder Krankheiten per Biomarker zu „erriechen“. Besonders interessant sind Ansätze in Bezug aufs Schmecken und Fühlen. Erste Prototypen von Cogs können über Geschmacksrezeptoren die Zusammensetzung von Lebensmitteln erkennen und mögliche Gefahren, zum Beispiel bei Allergikern, aufzeigen. Andere Cogs machen das „Fühlen“ erlebbar. Über spezifische Vibrationsmuster können Texturen vermittelt werden, so dass nahezu jede Art von Oberfläche und das zugehörige Empfinden dieser simuliert werden kann. Für die Bekleidungsindustrie wäre diese Technologie ein Quantensprung, da Mode auch im Onlinegeschäft für Kunden „erfühlbar“ werden würde.
C wie Collaborative Innovation Canvas
Der Collaborative Innovation Canvas betrachtet das Innovationsmanagement in einer multidimensionalen Ebene. Zentrales Element ist die Value Proposition. In der horizontalen Ebene werden die unterschiedlichen Perspektiven der am Innovationsprozess Beteiligten betrachtet. Hierzu gehört die
- Unternehmensperspektive (Shareholder, Strategie, KPI)
- Prozessperspektive (Kennzahlen, Entscheidung, Umsetzung)
- Teamperspektive (Kompetenzen, Kultur, Kommunikation)
- Markt-/Kundenperspektive (Marktumfeld, Kundensegment, Kundenbeziehung)
und das sich daraus resultierende Befähigungsmodell. In der vertikalen Ebene wird das Werteversprechen, die Werteerfassung sowie die operationalisierte Wertschöpfung unterschieden. Sie spiegelt die strategische, konzeptionelle und operative Ebene. Die dritte Dimension wird durch eine diagonale Ebene dargestellt, mit der die beiden Pole zwischen dem technologiegetriebenen Push-Ansatz und dem marktgetriebenen Pull-Ansatz gegenüber gestellt werden.
Der Collaborative Innovation Canvas by e‑nnovalytics® ist die treibende Kraft hinter einem erfolgreichen Innovationsmanagement und vereint die strategische und operative Ebene genauso wie die unterschiedlichen Perspektiven und Interessen. Außerdem schafft er die Grundlage für eine innovationsfreundliche Unternehmens- und Projektkultur.
C wie Company Builders
Company Builders ist ein Begriff, der häufig im Zusammenhang mit Startups und synonym zu →Inkubator oder →Accelerator verwendet wird. Company Builders unterscheiden sich von Inkubatoren und Acceleratoren darin, dass diese überwiegend aus dem eigenen Unternehmen kommen. Es werden eigene Ideen entwickelt und das passende Team intern zusammengestellt. Dadurch haben Company Builders eine deutlich größere Mitgestaltung sowie Rolle bei der Mitentwicklung, Vermarktung und Skalierung neuer Unternehmen. In der Unternehmensentwicklung sind sie über alle Wachstumsphasen hinweg intensiv involviert. Das Ziel besteht darin, bestehende oder neue Geschäftsfelder mit eigenen Kompetenzen und Ressourcen zu entwickeln oder weiter zu entwickeln. Im Gegensatz zum klassischen eigenständigen Company Builder verfolgt der Corporate Company Builder das Ziel, neue Geschäftsmodelle nicht nur zu entwickeln und aufzubauen, sondern diese in die Unternehmensstruktur als Geschäftseinheit, Spin-out oder Beteiligung zu konsolidieren. Company Builders verfügen über die nötigen finanziellen Ressourcen, das Netzwerk und Managementkompetenzen. Ihr Ziel ist es, möglichst viele stark wachsende und kommerziell erfolgreiche Startups hervorzubringen.
C wie Concierge MVP
Concierge MVP ist eine besondere Variante des →Minimum Viable Products. Hierbei wird der Kundenauftrag für die Testphase manuell ausgeführt, der später im Geschäftsmodell automatisiert erfolgen soll. Den Begriff prägte Eric Ries 2012 mit dem Konzept →Lean Startup. Bevor man mit viel Zeit- und Kostenaufwand einen (perfekt) automatisierten Dummy investiert, wird das Prinzip bzw. prinzipielle Leistungsversprechen beim Kunden manuell getestet. Der Aufwand ist zunächst etwas höher, dafür bekommt das Team eine wertvolle Lernkurve. Dadurch erfährt man, ob es einen Bedarf an dem gibt, was man anbietet, wie der spätere Prozess genau aussehen wird und was der Kunde bereit ist, dafür zu zahlen usw. Der Vorteil beim Concierge MVP besteht darin, dass nicht einmal ein →Prototyp gebaut werden muss.
C wie Corporate Digital Responsibility (CDR)
Digitale Transformation wird in der Regel mit technologischem Fortschritt und wirtschaftlichem Wachstum in Verbindung gebracht. Die gesellschaftlichen Dimensionen und sozialen Aspekte dieser Entwicklung kommen in der Regel zu kurz. Corporate Digital Responsibility (CDR) bezieht sich auf die Unternehmensverantwortung in einer digitalen Gesellschaft und berücksichtigt die gesellschaftlichen, ökonomischen und ökologischen sowie sozialen Veränderungen durch die Digitalisierung. Der Begriff tauchte 2016 erstmals auf und steht für die freiwillige Selbstverpflichtung zum nachhaltigen Wirtschaften von Unternehmen. Er ist ein wichtiger Erfolgsfaktor und kulturprägend in der digitalen Transformation von Unternehmen. Da der digitale Wandel mittlerweile tiefgreifende Veränderungen in allen Branchen verursacht, ist CDR nicht nur für Digital- oder IT-Unternehmen relevant, sondern für alle Unternehmen mit einem digitalen Geschäftsmodell. Neben Selbstverständlichkeiten wie der Einhaltung und Erfüllung gesetzlicher Anforderungen und Standards sowie dem Umgang mit Kundendaten, Datenschutz sowie geistigem Eigentum usw. erstreckt sich CDR auch auf umfassende ethische Überlegungen und moralische Werte, nach denen ein Unternehmen agiert. Hinzu kommt die Beachtung digitaler Nachhaltigkeit z. B. im Umgang mit „digitalen Artefakten“ wie Big Data, Smart Data, Algorithmen und Künstlicher Intelligenz. Diese stehen oftmals im Widerspruch zu grundlegenden Verfassungswerten wie Humanität, Solidarität und Verantwortung. Corporate Digital Responsibility (CDR) greift die Probleme auf, die sich u. a. aus der Lücke oder Defiziten digitaler Fähigkeiten ergeben (ein Viertel aller Deutschen stehen aufgrund fehlender Kompetenzen im „digitalen Abseits“) oder in der „unethischen“ Nutzung von Kundendaten und der „Korruption“ der digitalen Selbstbestimmung. Ein weiteres Thema ist der ungleiche Zugang sowie der ökologische Fußabdruck der digitalen Technologie. Außerdem setzt sich CDR mit dem Druck auf Gemeinschaft und Wohlbefinden auseinander, der z. B. durch einen „Kollaps der Realität“ in den sozialen Medien entstanden ist und noch weiter zu eskalieren scheint oder auch dem Problem einer intransparenten digitalen Welt, deren „unsichtbare“ Regeln von der Gemeinschaft nicht kontrolliert werden können. Corporate Digital Responsibility (CDR) setzt sich in gleicher Weise mit der Nutzung von Chancen und Potenzialen sowie dem Abwenden von Risiken und Nachteilen auseinander. Das höhere Ziel besteht darin, einen „Shared Value“ im digitalen Wirtschaften für Gesellschaft und eigenem Unternehmen und somit neue Wertschöpfungsketten zu generieren.
C wie Coverage-Faktor
Der Coverage-Faktor zeigt in der Marktforschung an, zu wie viel Prozent eine Untersuchung den Gesamtmarkt abdeckt. Eine Coverage von z. B. 75% besagt, dass die ermittelten Marktdaten zu Dreiviertel den Gesamtmarkt abdecken.
C wie Co-Working Space
Co-Working bedeutet wörtlich übersetzt “nebeneinander arbeiten“ und trat als Konzept Anfang der 2000-er Jahre erstmals in den USA unter dem Begriff „Shared Workspace“ auf. Die im Silicon Valley in Kalifornien entstandene Arbeitsform bezeichnet einen zeitlich flexiblen Arbeitsplatz, den sich mehrere Menschen teilen. Dieser findet in so genannten „Co-Working Spaces“ statt, von denen der erste im Jahr 2005 in San Francisco eröffnet wurde. Typisch sind große Räume mit offener Architektur. Zu Beginn als reines Phänomen in Großstädten und Metropolen zu beobachten, hat sich das Konzept mittlerweile weltweit sowohl als neue Arbeitsform im Sinne der Arbeit 4.0 (New Work) etabliert und findet zunehmend auch im ländlichen Raum statt. Anders als in einem herkömmlichen Business Center sind Co-Working Spaces „sozialer“. Sie haben sich neben dem klassischen Arbeitsplatz im Unternehmen und dem Home Office als „dritte Orte“ entwickelt, die sich vor allem durch Flexibilität, Unabhängigkeit und Zugänglichkeit auszeichnen. So können die Co-Worker (Nutzer) aus verschiedenen Tarifen wählen, wann, wie häufig und wie lange sie den Space nutzen wollen und welche technischen Angebote und digitalen Dienstleistungen sie in Anspruch nehmen. Hierzu werden so genannte Plug and Play-Arbeitsplätze angeboten: volle Arbeitsplatz-Infrastruktur, Service, Reinigung, Nebenkosten, Highspeed-Internetzugang, Kaffee-Flatrate und manchmal auch Fitnessräume oder andere Angebote zum physischen oder psychischen Ausgleich.
Eine der Leitideen von Co-Working Spaces ist, dass dort Menschen verschiedenster beruflicher Qualifikationen, Erfahrungen und Kompetenzen aufeinandertreffen, so dass durch Interaktion Synergien genutzt werden und neue Ideen und Projekte entstehen. Als multifunktionale Begegnungsräume bilden Co-Working Spaces einen Indikator für innovative Kollaboration und dem Ausbau persönlicher Netzwerke. Darüber hinaus finden oft Veranstaltungen und Workshops von und für die Co-Worker statt, die zum einen den Community-Gedanken, gleichzeitig aber auch die berufliche Weiterbildung fördern. Vor allem das Miteinander und die Gemeinschaft innerhalb der Co-Working Spaces bilden einen großen Vorteil gegenüber dem Arbeiten im Home Office, wo man beruflich und sozial oft isoliert ist.
Nahezu alle Co-Working Spaces verfolgen die gleichen fünf Grundwerte: Zusammenarbeit, Community, Nachhaltigkeit, Offenheit und Zugänglichkeit. Diese repräsentieren einen neuen Work-Life-Style, der durch einen Ideen- und Informationsaustausch geprägt ist und die Arbeitsumgebung gleichzeitig zu einer Lernumgebung umfunktioniert.
C wie Cradle-to-Cradle (C2C)
Cradle-to-Cradle kann sinngemäß „vom Ursprung zum Ursprung“ übersetzt werden und beschreibt im Prinzip einen Ansatz für eine durchgängige und konsequente Kreislaufwirtschaft. Dieses Denken in Kreisläufen wurde Ende der 1990er-Jahre von dem deutschen Chemiker Michael Braungart und dem US-amerikanischen Architekten William McDonough entworfen. In ihrer Philosophie sind Produkte nach dem „Cradle-to-Cradle-Prinzip“ solche, die entweder als biologische Nährstoffe in biologische Kreisläufe zurückgeführt oder als „technische Nährstoffe“ kontinuierlich in technischen Kreisläufen gehalten werden können, also durch Wiederaufbereitung wieder dem Kreislauf zugeführt werden. Hierbei darf nicht nur der funktionale Nutzen im Mittelpunkt stehen, sondern auch die Verwendung der Rohstoffe nach der Nutzung. Kostbare Ressourcen werden nicht verschwendet, sondern wieder verwendet.
Cradle-to-Cradle basiert auf einer radikalen Denkweise in Kreisläufen und orientiert sich dabei an der Natur, denn biologische Kreisläufe lassen keinen Abfall zurück. Der perfekte Kreislauf bedeutet im Endeffekt nichts anderes als ein völliges Umdenken im Produktlebenszyklus der Produkte – angefangen vom Produktdesign, der Gewinnung der Rohstoffe, der Produktion und dem Inverkehrbringen, der Nutzung bis hin zur Rücknahme und Wiederverwendung. Das Ergebnis wäre eine Welt ohne Müll. Der Cradle-to-Cradle-Ansatz schließt auch die umweltfreundliche Produktion und die Nutzung von erneuerbaren Energien mit ein, also den biologischen und technischen Kreislauf.
Aktuell basiert unsere auf Effizienz getrimmte und auf Gewinnmaximierung ausgerichtete Absatzwirtschaft noch auf das genaue Gegenteil. In der Abfallwirtschaft spricht man deshalb vom Cradle-to-Grave-Prinzip, das nichts anderes bedeutet, dass Produkte nach dem Ende ihrer Nutzung auf dem Müll landen. Zur Produktion werden immer wieder neue Rohstoffe benötigt, die bekanntlich endlich sind – von der Umweltverschmutzung durch den Müll abgesehen. Braungart und McDonough haben im Kontrast zu „Ökobilanz“ (die den Stoffkreislauf und dessen Umweltwirkungen „von der Wiege bis zur Bahre“ analysieren) und „Ökoeffizienz“ auch den Begriff „Ökoeffektivität“ geprägt.
C wie Cradle-to-Grave-Prinzip
→Cradle-to-Cradle-Prinzip
C wie Creative Problem Solving
Creative Problem Solving ist eine Kreativtechnik aus den 1950-er Jahren und wurde von Alex Osborn und Sidney J. Parnes entwickelt. Nachdem Alex Osborne zuvor die Grundregeln des Brainstormings beschrieben hatte, wollte er ein Modell für den gesamten Prozess der kreativen Problemlösung entwickeln. Hierbei unterschied er zwischen zwei grundlegenden Denkweisen, die im Creative Problem Solving Prozess stattfinden:
- divergentes Denken (Denken in vielen Optionen) und
- konvergentes Denken (Evaluierendes Denken, Entscheidungen treffend)
Isaksen und Treffinger entwickelten den Creative Problem Solving Prozess in den 1990-er Jahren weiter und unterschieden in drei Phasen und sechs Teilschritte:
- Explore the Challenge (Erkunden der Herausforderung)
1.1 Mess Finding (Bestimmen des Ziels)
1.2 Data Finding (Sammeln von notwendigen Informationen)
1.3 Problem Finding (Identifizieren des Problems, das gelöst werden muss, um das Ziel zu erreichen)
- Generate Ideas (Generieren von Ideen)
2.1 Idea Finding (Generieren von Ideen für die Lösung des identifizierten Problems)
- Prepare for Action (Handlung vorbereiten)
3.1 Solution Finding (Ausarbeiten von Ideen zu einer umsetzbaren Lösung)
3.2 Acceptance Finding (Handlungsschritte planen)
C wie Cross-Impact-Analyse
Die Cross-Impact Analyse beschreibt eine Prognosetechnik. Hierbei handelt es sich um eine aufwändige Methode zur Erstellung und Beurteilung von Szenarien mit vielen, nicht analytisch eindeutig zu identifizierenden Faktoren. Mit der Wechselwirkungsanalyse werden Zusammenhänge (engl. cross impact) zwischen verschiedenen zukünftig möglicherweise auftretenden Ereignissen simuliert, anschließend analysiert deren gegenseitige Auswirkungen bewertet. Die meisten Ereignisse bzw. Entwicklungen stehen auf irgendeine Art und Weise mit anderen Ereignissen und Entwicklungen in Beziehung (Korrelation). Andere Prognosetechniken wie z. B. die →Delphi-Methode können nur abgegrenzte Problemstellungen betrachten. Verknüpfungen und deren Abhängigkeiten werden hierbei nicht berücksichtigt. Die Cross-Impact-Analyse schließt diese Lücke und wird u. a. in der →Szenario-Technik eingesetzt.
Das Grundprinzip der Cross Impact Matrix (CIM) ist die Gegenüberstellung von Ereignissen in einer Matrix. Hierbei werden die betrachteten Ursachen und möglichen Wirkungen ins Verhältnis gesetzt und somit die Wechselwirkungen erfasst. Die geschätzte Eintrittswahrscheinlichkeit dient als Anfangswert für eine numerische Simulation. In jedem Kreuzungspunkt der Matrix tragen befragte Experten unabhängig voneinander ein, wie sie den Einfluss der jeweiligen Ursache auf die zugehörige Wirkung einschätzen. Dies kann in einer einfachen Symbolik (positiver Einfluss, kein Einfluss, negativer Einfluss) sein oder in einer Zahlenskala (meist von -3 bis +3). Aus den Einzelergebnissen wird eine gemeinsame Matrix berechnet. Hierfür wird häufig eine →Monte-Carlo-Simulation verwendet. Diese wird anschließend den Experten zur Beurteilung vorgelegt.
Die Cross-Impact-Matrix dient der Beurteilung der Eintrittswahrscheinlichkeit verschiedener, möglicher Zukunftsszenarien (Futuribles genannt). Sie hat einen deskriptiven Charakter und soll nicht zur Entscheidungsfindung dienen, sondern zur Orientierung. Bei komplexeren Fragestellungen kommt eine Simulationssoftware zum Einsatz. Anwendungsgebiete sind volkswirtschaftliche Zusammenhänge wie z. B. die Analyse des Weltölmarktes oder die Liberalisierung des Energiemarktes. Des Weiteren wird die Cross-Impact-Matrix auch gerne in der Abschätzung der Technologieentwicklung und ihrer Auswirkungen eingesetzt. Selbst für kleinere Analysen z. B im Rahmen einer detaillierten Businessplan-Entwicklung kann die Cross-Impact-Analyse sinnvoll sein, z. B. wenn verschiedene Business-Cases betrachtet und bewertet werden.
Die Cross-Impact-Analyse zeigt bei einer kritischen Betrachtung einige Schwächen auf. So erfolgt die Auswahl und Beurteilung der relevanten Faktoren subjektiv. Des Weiteren baut die Analyse auf Datenpaaren auf und ignoriert, dass in der realen Welt mehrere Entwicklungen ein Ereignis gleichzeitig beeinflussen können. Das Sammeln und Auswerten der Daten kann sehr zeitaufwendig sein, gleichzeitig ist gerade die ausführliche Auseinandersetzung mit verschiedenen Einflussfaktoren und deren Auswirkungen einer der größten Stärken der Cross-Impact-Analyse. Sie liefert oft Denkanstöße für alternative Vorgehensweisen.
C wie Crowdfunding
→Crowdsourcing
C wie Crowdsourcing
Der Begriff Crowdsourcing wurde geprägt vom amerikanischen Autor Jeff Howe. Er setzt sich aus den englischen Wörtern Crowd (Menge, Menschenmasse) und Outsourcing (Auslagerung) zusammen. Beim Crowdsourcing (auch Crowdworking genannt) verlegt eine Organisation traditionell interne Aufgaben und Prozesse nach außen. Eine Gruppe Externer (so genannte Crowdsourcees) wie z. B. Kunden, Geschäftspartner, Branchenexperten oder auch eine hochmotivierte und engagierte Community z. B. im Rahmen eines Hackathons, die an Innovation und Disruption interessiert ist, beteiligen sich aktiv an ausgelagerten Aufgabenstellungen. Crowdsourcing wird auch zur Ideenbewertung eingesetzt, wenn Unternehmen im Rahmen von Open Innovation Projekten mehrere Ideen bewerten muss.
Crowdsourcing ist hierbei eine interaktive Form der Zusammenarbeit, die kollaborativ oder wettbewerbsorientiert erfolgen kann. Hierzu wird eine Anzahl extrinsisch oder intrinsisch motivierter Experten mit einem unterschiedlichen Wissensstand einbezogen. Gegenstand sind in der Regel Produkte oder Dienstleistungen mit einem unterschiedlichen Innovationsgrad, die durch die Gruppe reaktiv aufgrund externer Anstöße oder proaktiv durch selbsttätiges Identifizieren von Bedarfen entwickelt werden.
Das Bündeln dieses Wissens vieler Experten wird auch als Schwarmintelligenz oder kollektive Weisheit bezeichnet. Erst durch die Entwicklung des Web 2.0 mit seinen sozialen Netzwerken und neuen Informations- und Kommunikationssystemen ist das gemeinschaftliche Entwickeln, Diskutieren, Weiterdenken und Optimieren von Ideen in der Masse möglich. Crowdsourcing erhöht die Geschwindigkeit, Qualität, Flexibilität, Skalierbarkeit und Vielfalt bei verringerten Kosten und bringt neue Ideen und Perspektiven ein.
In den letzten Jahren haben sich besondere Formen rund um das Crowdsourcing etabliert und werden teilweise synonym verwendet, was nicht immer korrekt ist. Co-creation bezeichnet die gemeinsame Produktentwicklung von Unternehmen und einer Gruppe Externer. Von der Entwicklung der Idee über die Implementierung bis zum Verkauf sind die Externen beteiligt. Beim Crowdfunding (Schwarmfinanzierung) geht es primär darum, Kapitalgeber zu gewinnen. Weniger im Sinne eines Investors oder Inkubators, sondern über Viele, die sich zusammenschließen sich finanziell mit Eigenkapital an der Unterstützung von Projekten, Produktentwicklungen oder Geschäftsideen beteiligen. Das Testen von Prototypen und ersten Anwendungen durch eine freiwillige Gruppe wird Crowdtesting genannt. Dadurch ist es möglich, Entwicklungen vor der offiziellen Markteinführung auf unterschiedlichsten Systemen auf Fehler zu prüfen und ihre Usability zu optimieren. Open Source heißt übersetzt offene Quelle und steht für öffentlich verfügbare Quelltexte bei Software. Programme dürfen je nach Lizenz verwendet, weitergegeben, verändert und damit auch weiterentwickelt werden. Im Unterschied zum klassischen Crowdsourcing, bei dem es in der Regel ein Verhältnis von Auftraggebern (in der Regel Unternehmen) und Auftragnehmern (Mitglieder der Crowd) gibt, entstehen Ergebnisse bei Open Source dezentral. Wissen wird nicht wie in der Regel bei Crowdsourcing gegen Vergütung oder andere Incentives erarbeitet, sondern in der Regel frei zur Verfügung gestellt. Entscheidet sich eine Organisation für Open Innovation öffnet sie ihren Innovationsprozess über die Unternehmensgrenzen hinaus. Bei der Produktentwicklung fließen Ideen sowohl aus der internen Organisation als auch durch Externe ein wie z. B. durch Kunden, Lieferanten, Geschäftspartnern oder Hochschulen und Forschungseinrichtungen etc. Unternehmen nutzen dafür auch das Crowdsourcing.
C wie Crystal Methode
Crystal ist der Oberbegriff für verschiedene agile Methoden in der Softwareentwicklung. Die einzelnen Methoden wurden zur Unterscheidung nach Farben (Crystal Clear, Crystal Yellow, Crystal Orange, …) bezeichnet. Die einfachste Variante Crystal Clear eignet sich für Teamgrößen von zwei bis sechs Personen, die anderen Varianten heißen Crystal Blue, Crystal Magenta, Crystal Red, Crystal Orange Web, Crystal Orange und Crystal Yellow. Sie spiegeln die jeweiligen Teamgrößen der entsprechenden Projekte wider. Abhängig von der Teamgröße und der sich daraus ergebenden Crystal Variante verändern sich auch die Anzahl der Rollen, der Dokumentationsumfang und die Menge der Methoden, die eingesetzt werden.
Die Entwicklung der Methode geht auf Alistair Cockburn zurück. Anfang der 1990-er Jahre sollte er für IBM Consultings eine Methode entwickeln, die der objektorientierten Entwicklung diente. Anders als heute gab es vor 30 Jahren keine agilen Methoden, mit denen die Aufgabenstellung gelöst werden konnte – es gab diese nicht mal, um neue Ideen damit abzugleichen. Infolgedessen ging Cockburn ganz klassisch vor und analysierte extrem viele Projekte und führte Interviews mit den Projektbeteiligten durch. Hierbei kam er zu dem Ergebnis, dass jedes Projekt seine Eigenart hat und mit anderen Projekten kaum vergleichbar ist. Eine seiner ersten Erkenntnisse war, dass unterschiedliche Projekte mit verschiedenen Herausforderungen und heterogener Teambesetzung mit einheitlichen und uniformen Regeln nicht erfolgreich umgesetzt und der Individualität eines jeden Projektes nicht gerecht werden können. Eine weitere Erkenntnis war, dass nur eine regelmäßige Kommunikation im Projektteam die notwendige Transparenz schafft sowie Motivation und Identifikation hochhält. Beides hielt Cockburn für den Erfolg oder Misserfolg für essenziell. Cockburn ergänzte die erfolgskritischen Faktoren noch um drei Bausteine:
- die Anzahl der Projektmitarbeiter, die koordiniert werden müssen
- die so genannte Kritikalität, mit der eingestuft werden kann, ob sich Fehler in der Softwareentwicklung nur auf den Komfort des Anwenders (niedrigste Stufe), den finanziellen Mehraufwand für den Auftraggeber, den Fortbestand des Unternehmens oder sogar auf Menschenleben (höchste Stufe) auswirken können
- Prioritäten, die individuell und nach Bedarf bestimmt werden.
Alle Crystal-Methoden weisen folgende, gemeinsame Merkmale auf:
- Der Kunde erhält regelmäßig (mindestens pro Quartal) eine funktionierende Zwischenversion der Software
- Permanente Suche, Bewertung und Priorisierung von Verbesserungsvorschlägen
- Probleme und Meinungsverschiedenheiten (sowohl innerhalb des Teams als auch zu Vorgesetzten) werden offen angesprochen
- Die Kommunikation innerhalb des Teams und zum Kunden ist eng und intensiv
- Auf Kundenseite muss ständig ein kompetenter Ansprechpartner als Benutzer des zukünftigen Produktes erreichbar sein
- Alle am Projekt beteiligten Mitarbeiter arbeiten grundsätzlich lösungs- und zielorientiert
- Einsatz von Versionsverwaltung bzw. einem Konfigurations-Management
- Häufige (automatisierte) Tests von Programmcode sowie regelmäßige Erstellung einer lauffähigen Testversion.
Crystal-Methoden haben ihre Stärken im Bereich User-Testing, Qualitätsmanagement und in der Implementierung. Mittel bis schwach ausgeprägt sind dagegen Projektmanagement, Requirement-Management, die Integration und Einführung sowie Wartung. Ungeeignet ist die Methode für technische Konzeption und Systemdesign.
C wie Culture in Action Index (CIA)
Eine der essenziellen Herausforderungen bei der digitalen Transformation von vor allem etablierten und traditionellen Unternehmen ist die Veränderung der Unternehmenskultur. Der hierzu notwendige Change-Prozess muss regelmäßig überprüft, ggf. angepasst und neu justiert werden. Mit dem Culture in Action Index (CIA) kann der Transformationsprozess und -fortschritt gemessen werden. Er ist ein Barometer für den Kulturwandel im Unternehmen. Hierbei werden Mitarbeiter befragt, wie sie selbst, wie Kollegen und wie direkte Führungskräfte andere motivieren bzw. demotivieren, die angestrebte Unternehmenskultur zu leben und sich mit ihr identifizieren. Daher fokussiert sich der Kulturindex auf die Mitarbeiter- und Kollegen-Perspektive und ein Maß dafür, wie sie über die eigene Organisation denken und ob sich Mitarbeiter in Bezug auf ihr Arbeitsumfeld und ihre Aufgaben glücklich, neutral oder traurig fühlen. In der Praxis haben sich 15 Fragen bewährt:
- Haben Sie das Gefühl, dem Management vertrauen zu können? Warum oder warum nicht?
- Haben Sie das Gefühl, dass Sie Möglichkeiten haben, dem Management Feedback zu geben?
- Haben Sie das Gefühl, dass Ihre Meinung wichtig ist?
- Fühlen Sie sich in Ihrem Job oft gestresst oder überfordert?
- Erhalten Sie oft Feedback oder erhoffen sich ein Feedback von Ihrem Vorgesetzten?
- Haben Sie das Gefühl, dass Sie eine gute Zusammenarbeit mit Ihrem Vorgesetzten haben?
- Haben Sie das Gefühl, offen kommunizieren und eine Meinung äußern zu können?
- Was würde Sie an Ihrem Arbeitsplatz glücklicher machen?
- Fühlen Sie sich sicher an Ihrem Arbeitsplatz? Warum oder warum nicht?
- Haben Sie das Gefühl, dass es sich lohnt, alles für Ihren Job zu geben?
- Glauben Sie, dass Sie einen Krankheits- oder Urlaubstag ohne Sorgen hinnehmen können?
- Haben Sie flexible Arbeitszeiten?
- Sind Sie stolz darauf, anderen von Ihrem Arbeitsplatz zu erzählen?
- Würden Sie anderen empfehlen, sich bei Ihrem Arbeitsplatz zu bewerben? Warum oder warum nicht?
- Fühlen Sie sich mit Ihren Kollegen verbunden?
Idealerweise sollten diese Fragen nicht einmalig gestellt werden, sondern in regelmäßigen Abständen (innerhalb von 1 bis 2 Jahren) und die Veränderungen beobachtet werden. Der so genannte Tipping Point ist erreicht, wenn 35% der Mitarbeiter konsistent ein kulturell verändertes Verhalten an den Tag legen.
C wie Culture Map Methode
Die Cultur Map Methode wird im Rahmen von →Change-Prozessen angewendet und ist ein innovativer Ansatz, um →Unternehmenskultur sichtbar und somit erlebbar bzw. greifbar zu machen. Die partizipative Methode basiert auf der Memetik, der Lehre der kulturellen Evolution und kombiniert wissenschaftliche Forschung und innovative Theorien mit praktischen Erkenntnissen aus der Zusammenarbeit mit Unternehmen und Organisationen. Mit einer Culture Map werden Verhaltensweisen in Organisationen sichtbar gemacht und ihre Auswirkungen identifiziert und charakterisiert. Diese liefern die Grundlage für unterschiedliche Unternehmenskulturen. Die Culture Map stellt Kulturmuster anhand von sieben Werteclustern dar, die jeweils durch eine Farbe gekennzeichnet sind. Die Cluster zeigen die typischen Charakteristika einer Unternehmenskultur.
Violette Unternehmenskulturen zeichnen sich durch ein patriarchisches Verhalten aus. Der Unternehmensgründer gibt den Ton an. Treue und Loyalität bis hin zur bedingungslosen Gefolgschaft sind das oberste Gebot. Die Individualität des Einzelnen ist nicht erwünscht, Anpassung und Konformität werden erwartet. Schlüsselpositionen im Unternehmen werden nur an interne und altgediente Mitarbeiter vergeben. Nach außen wird eine hohe Identifizierung mit dem Unternehmen demonstriert. Dies zeigt sich in einer starken Corporate Identity bis hin zu einer einheitlichen Kleidung. In dem meisten Fällen ist das Corporate Design eher konservativ und visualisiert traditionelle Unternehmenswerte. Gleichzeitig gibt es eine klare Abgrenzung nach außen. Ideen und Vorschläge, die nicht von den eigenen Mitarbeitern entstanden sind, werden konsequent und ungeprüft abgelehnt. Violette Unternehmen halten am Status quo fest und sind an Veränderungen nicht interessiert. Das bestehende Geschäftsmodell ist auf langfristiges Wachstum ausgelegt.
Rote Unternehmenskulturen zeichnen sich dagegen durch ein autoritäres, egoistisches und machtgeprägtes Verhalten aus. Im Mittelpunkt steht bedingungsloses Wachstum um jeden Preis. Der Führungsstil im Unternehmen ist geprägt durch Top-down-Entscheidungen bis hin zur Sturheit („mit dem Kopf durch die Wand“). Scheitern und Aufgeben sind keine Option. Klar strukturierte Prozesse mit Regeln und Planungsphasen wird man in Unternehmen mit einer roten Kultur vergeblich suchen. Es gilt das Motto „Learning by doing“ und „Jeder gegen jeden“. Führungskräfte agieren hemdsärmelig und sehr operativ getrieben. Das Motto lautet: „Done is better than perfect.“ Eine besondere Form roter Unternehmenskulturen erkennt man an einem Realitätsverlust. „Ich mache mir die Welt, wie sie mir gefällt“ von Pipi Langstrumpf lässt grüßen.
Blaue Unternehmenskulturen sind sehr rational und monoton geprägt; es gibt klare Hierarchien, jede Menge Regeln, Prozesse und Zuständigkeiten. Die Unternehmen werden sehr bürokratisch geführt. Es gibt eine klare Ordnung und definierte Strukturen und Niemand weicht ohne Grund von diesen Vorgaben ab. Eigeninitiative und Mitdenken sind ausdrücklich nicht erwünscht. Budgets, Ressourcen, Rollen und Zuständigkeiten sowie die dazugehörigen Kompetenzen sind geregelt. Diese Unternehmen sind durch die fünf »S« wie Sichtbare Ordnung, Sortieren, Standardisieren, Sich verbessern und Sauberhalten geprägt. Typische Vertreter dieser Kultur sind Unternehmen mit Massenproduktion und Fließbandarbeit. Entscheidungen von „oben“ werden grundsätzlich nicht hinterfragt. Es herrscht eine eher unterkühlte Atmosphäre; Emotionen haben in roten Unternehmenskulturen nichts zu suchen. Unternehmen mit einer blauen Unternehmenskultur sind auf langfristiges Wachstum ausgelegt und auf Prozesseffizienz.
Orange Unternehmenskulturen findet man vor allem in stark wachsenden und sehr erfolgreichen Unternehmen, nicht selten aus der Tech-Branche. Dem Erfolg wird alles untergeordnet. Der Zweck heiligt die berühmten Mittel. Pragmatismus und schnelle Erfolge stehen im Mittelpunkt. Hierzu werden Regeln, wenn es welche gibt, regelmäßig gedehnt oder großzügig ausgelegt und individuell interpretiert. In orangenen Kulturen herrscht immer eine gewisse Aufbruchstimmung. Es gibt kein Best Practise, diese werden eher selbst definiert. In Unternehmen dieser Kultur wurde das Motto geboren: „Es gibt keine Probleme, sondern nur Herausforderungen“. Individuelle Leistungen stehen im Vordergrund und werden entsprechend belohnt. Das ungeschriebene Leitbild lautet: „Jeder ist seines Glückes Schmied“. Dies bedeutet aber auch, dass unter den Mitarbeitern wie auch den Führungskräften ein permanenter Wettbewerb besteht. In Unternehmen mit einer orangenen Unternehmenskultur bleibt das Privatleben regelmäßig hinter dem Berufsleben zurück. Orangene Kulturen sind geprägt von einer hohen Kreativität und Experimentierfreude. Die Kommunikation verläuft in der Regel unabhängig von Hierarchie und Strukturen. Das Projektmanagement ist von einer hohen Agilität geprägt.
Grüne Unternehmenskulturen sind von einem hohen Verantwortungsbewusstsein geprägt, gegenüber den Menschen im Unternehmen, Kunden, Lieferanten und Geschäftspartnern sowie der Gesellschaft. Der Glaube an das Gute im Menschen und ein harmonisches Miteinander stehen im Mittelpunkt. Führungskräfte haben in der Regel die Funktion eines Coaches oder Mentors. In grünen Unternehmenskulturen gibt es eine hohe Identifikation mit dem Unternehmen, was zu einer hohen Zufriedenheit und geringen Fluktuation der Mitarbeiter führt. Der Führungsstil ist partnerschaftlich und vom Grundsatz „Dialog statt Anweisungen“ und „Betroffene zu Beteiligten machen“ geprägt. Dies kann allerdings auch dazu führen, dass Unternehmen mit einer grünen Kultur gutgläubig agieren oder konfliktscheu sind und somit Kompromisse suchen, die nicht immer erfolgreich sein müssen. Das Geschäftsmodell ist stark auf Nachhaltigkeit ausgelegt. In der Außendarstellung verhalten sich derartige Unternehmen gesellschaftspolitisch korrekt.
Gelbe Unternehmenskulturen haben die Veränderungen als Selbstverständlichkeit in ihrer DNA verankert. In Unternehmen dieser Kultur lautet das Motto: „Heute ist das Gestern von morgen“ – und dies als Querschnittsfunktion in der gesamten Organisation. Die Zukunft ist allgegenwärtig und die Gegenwart nur dazu da, alle Voraussetzungen hierfür zu schaffen. Der Spruch von Heraklit: „Nichts ist so beständig wie der Wandel“ treibt diese Unternehmen an, die sich vor allem im technologischen Wettbewerb behaupten müssen. Das Geschäftsmodell besteht aus Wissen bzw. synonym aus Daten und deren Monetarisierung. Unternehmen mit einer gelben Kultur haben eine hohe Innovationsrate. Eine Mischung aus Neugierde und Risikobereitschaft sowie Logik und Verstand sind die Grundpfeiler in gelben Unternehmenskulturen. Forscher und Entdecker können sich in diesem Umfeld frei entfalten, in dem Freiheit und Kreativität genauso gefördert werden wie Klarheit und Vernunft im Denken. Gelbe Unternehmenskulturen sind technisch, rational und sachlich geprägt, so dass die Emotionen und nicht selten der Faktor Menschlichkeit auf der Strecke bleiben. Außerdem besteht die Gefahr der Verzettelung, wenn ständig neue Ideen mehr honoriert werden als eine erfolgreiche Umsetzung.
Aqua farbene Unternehmenskulturen vereinen alle anderen Kulturfarben und halten diese in der Balance. Unternehmen dieser Kultur haben verstanden und akzeptiert, dass in globalen Ökosystemen eine hohe Komplexität herrscht und Lösungen ganzheitlich und nachhaltig entwickelt werden müssen. Eines der Ziele besteht darin, resilientere Unternehmen zu schaffen, um nahezu jede Krise überstehen zu können. Hierzu nutzen diese Unternehmen die Gegensätzlichkeiten verschiedener Kulturprägungen und integrieren diese zu einer neuen und modernen Unternehmenskultur, in der auf agile Netzwerke und eine starke Selbstorganisation gesetzt wird, anstatt auf klassische Hierarchien und starre Prozessbeschreibungen. Unterschiede der einzelnen Kulturfarben werden nicht als Trennendes verstanden, sondern der Vorteil im Kontext herausgestellt. Die Loyalität gegenüber dem Team und der Erfolg des Projektes steht über der Identifikation mit dem Unternehmen. Unternehmen mit einer Aqua farbenen Kultur geht es vor allem um eine nachhaltige und sinnstiftende Ausrichtung. Das Geschäftsmodell steht im Kontext, welchen gesellschaftlichen Beitrag das Unternehmen leistet. In besonders stark ausgeprägten Aqua farbenen Unternehmenskulturen findet man nicht selten einen Hang zu Altruismus und Spiritualität vor.
Die Cultur Map Methode wird nicht nur zur Bestandsaufnahme angewendet, sondern auch um Rahmenbedingungen und Maßnahmen für eine gewünschte Unternehmenskultur zu definieren sowie den Change-Prozess zu moderieren. Im Ergebnis wird ein Prozess entwickelt, dem →Business Culture Design.
C wie Customer Centricity
Der Begriff „Customer Centricity“ ist nicht einfach der englische Begriff für Kundenorientierung oder Kundenzentrierung. Er definiert einen grundlegenden Perspektivwechsel und ist eine von mehreren →Unternehmensstrategien. Aus einem produktorientierten Ansatz (Funktionalität) wird ein kundenorientierter Ansatz (Zufriedenheit). Somit ist eine konsequente Kundenzentrierung auch nicht nur ein Vertriebs- und/oder Marketingkonzept oder ein Service, bei dem sich alles um den Kunden dreht. Customer Centricity ist die Essenz aus Unternehmensstrategie, →Unternehmenskultur und Unternehmensphilosophie und somit die DNA des Unternehmens. Sie wird zur Querschnittsfunktion in allen Unternehmensbereichen, so dass an die Menschen in einer Organisation die Fähigkeit abverlangt wird, eine hohe Kundenempathie aufzubauen. Hierzu dienen u. a. die →Buyer Persona Methode oder die →Culture Map Methode. Seinen Kunden zu kennen bedeutet nicht, möglichst viele Daten von ihm in ein CRM einzupflegen. Seinen Kunden zu verstehen bedeutet, seine Bedarfe und Bedürfnisse, Wünsche und Erwartungen, Verhaltensweisen, Probleme und Herausforderungen zu kennen und ihn zu unterstützen, erfolgreich zu sein. Auf der Grundlage können die Touchpoints systematisiert und die Painpoints entlang der →Customer Journey identifiziert werden. Infolgedessen beginnt beim →Customer Centric Approach die →Wertschöpfungskette beim Kunden. Aus dem produktorientierten Push-Ansatz wird ein kundenorientierter Pull-Ansatz. Die Erfüllung der Kundenerwartungen, -bedürfnisse und -wünsche als Indikator für Kundenzufriedenheit ist die Kernkompetenz im Geschäftsmodell von Unternehmen. Customer Centricity kann auch als →USP definiert werden, wenn die Customer Journey und User Experience einzigartig sind. Die Unternehmensstrategie als Grundlage sowie sämtliche operative Maßnahmen wie z. B. “Loyalty-Programs” als Implementierung sind konsequent auf eine nachhaltige Kundenbeziehung ausgerichtet. Das Geschäftsmodell ist von gegenseitiger Wertschätzung, Verlässlichkeit, Loyalität und Empathie gekennzeichnet.
Eine Geschäftsbeziehung ist keine Einbahnstraße und ein Kunde nicht nur ein Käufer. Zufriedene Kunden werden zu einflussreichen Influencern – auch im B2B-Bereich. Das Kundenfeedback z. B. in Form von Bewertungen in den sozialen Netzwerken triggert ggf. potenzielle Neukunden. Die Meinung und Glaubwürdigkeit von Kunden in Foren und Communities steht über der subjektiven Werbung von Unternehmen. Kunden können somit den Erfolg oder Misserfolg von Produkten oder ganzen Unternehmen (mit) beeinflussen. Diese Entwicklung wird als →Customer Empowerment bezeichnet und wird in den nächsten Jahren an Bedeutung gewinnen. Nicht ohne Grund gehen immer mehr Unternehmen dazu über, Kunden über →Open Innovation in den eigenen Innovationsprozess mit einzubeziehen.
Auswirkungen der Customer Centricity im Online-Marketing und/oder im →E-Commerce zeigen sich z. B. im User Centered Design, einer kundenspezifischen Usability, dem Inbound Marketing sowie einer Multichannel-Kommunikation. Hierbei geht es nicht nur um Leadgenerierung und Neukundengewinnung, sondern um langfristige Kundenbeziehungen. Ein wichtiger Indikator für nachhaltige Kundenzufriedenheit zeigt sich regelmäßig beim Post-Sale. Customer Centricity ist keine Frage der Unternehmensgröße und/oder des Bekanntheitsgrades oder Markenimage.
C wie Customer Lifetime Value (CLV)
Der Customer Lifetime Value ist eine wichtige Kennzahl der Kundenbindung. Der Begriff setzt sich aus zwei Metriken zusammen: dem aktuellen Kundenwert sowie dem potenziellen Wert, den ein Kunde für ein Unternehmen haben kann. Der CLV beschreibt infolgedessen den Deckungsbetrag, den ein Kunde während der Kundenbeziehung realisiert. Das Ziel einer auf dem Customer Lifetime Value basierenden Vertriebs- und Marketingstrategie ist es, durch eine umfassende Kundenbetreuung nicht nur eine langfristige Kundenbeziehung aufzubauen, sondern eine echte Kundenloyalität zu erzeugen. Bekanntlich ist es günstiger, bestehende Kundenbeziehungen zu halten und auszubauen, als neue zu gewinnen. Durch die Verschiebung des Fokus – weg von der bedingungslosen Neukundenakquise hin zu einer nachhaltigen Customer Experience der Bestandskunden – gewinnen Kundenwertanalysen eine zunehmende Bedeutung für jedes Unternehmen. Im operativen Tagesgeschäft im Vertrieb wird häufig außer Acht gelassen, dass eine Kundenbetreuung rentabel bleiben muss. Gibt ein Unternehmen für einen potenziellen Neukunden oder Bestandskunden mehr aus, als dieser ihm zukünftig einbringen wird, lohnen sich diese Ausgaben nicht. Der Customer Lifetime Value unterstützt bei der Planung des Budgets und der Ressourcen, indem er darstellt, welchen Wert eine Kundenbeziehung für das Unternehmen derzeit hat und in Zukunft haben wird. Je nachdem, welcher Wert ermittelt wird, können die Budgets gezielt erhöht, reduziert oder gleich bleiben. Der CLV zeigt darüber hinaus an, ob die Kundenbindungsstrategie eines Unternehmens erfolgreich und nachhaltig ist.
Der Customer Lifetime Value wird mit verschiedenen Methoden berechnet und baut auf wichtigen Kennzahlen auf wie z. B. dem durchschnittlichen Auftragswert (Umsatz) und/oder durchschnittlichen Deckungsbeitrag. Hinzu kommen die Anzahl der wiederholenden Umsätze pro Jahr. Dem werden die Akquisitionskosten für Neukunden sowie die Betreuungskosten für Bestandskunden gegenüber gestellt. Hierzu gehören direkte und indirekte Kosten wie z. B. Außendienstbetreuung, Rabatte und Aktionen sowie Marketingunterstützung, technischer Support oder Kulanz bei Reklamationen usw. Im dritten Schritt werden die Anzahl der Kunden zu einem bestimmten Endzeitpunkt sowie die Anzahl der Kunden, die in dem Zeitfenster neu dazugewonnen wurden und die Anzahl der Kunden, die zum Beginn des Zeitfensters bereits vorhanden waren, ermittelt. Das Zeitfenster beträgt in der Regel ein Jahr (in der Regel ein Geschäftsjahr).
C wie Customer Profiling
Der Begriff Customer Profiling beschreibt die Erstellung, Verwendung und permanente Aktualisierung von Kundenprofilen, die aus generierten Kundendaten (Big Data, Data Lake, Smart Data) stammen. Diese werden identifiziert, analysiert und bewertet (Scoring), um eine optimale Kundenansprache in Vertrieb und Marketing sowie Potenzialausschöpfung (virtuelle Warenkörbe) zu erzielen. Die Grundlage im Customer Profiling bieten sieben Faktoren:
- Statische Faktoren wie z. B. sozioökonomische Faktoren (z. B. Bildung, Einkommen oder sozialer Status) und demografische Faktoren (z. B. Alter oder Geschlecht)
- Dynamische Faktoren wie psychografische Faktoren (z. B. Handlungsmotive oder Life-Style), behavioristische Faktoren (z. B. Handlungsmuster oder Art der Beschaffung von Informationen), geografische Faktoren (z. B. Bewegungsprofile oder Bewegungsradien), kontextuelle Faktoren (z. B. persönliches Umfeld oder Emotionen) und technologische Faktoren (z. B. Technikaffinität oder Techniknutzung).
C wie Cyber-physische Systeme (CPS)
Der zentrale Erfolgsfaktor zur Verbindung der digitalen und physischen Welt in der Zukunft der maschinellen Arbeit (Industrie 4.0) liegt in den so genannten cyber-physischen Systemen (CPS). Diese bezeichnen den Verbund von informations- und softwaretechnischen Komponenten mit mechanischen und elektronischen Komponenten, die über eine Dateninfrastruktur (in der Regel dem Internet) kommunizieren. Dabei werden zum einen Daten ausgetauscht und zum anderen Steuerung und Kontrolle über eine Infrastruktur behalten. Das Besondere ist nicht der Datentransfer an sich, sondern die Geschwindigkeit, mit der diese Aktionen erfolgen. CPS werden eingesetzt, um in Echtzeit mobile und bewegliche Einrichtungen, Geräte und Maschinen (darunter auch Roboter), eingebettete Systeme und vernetzte Gegenstände (Internet of Things) zu steuern. Ein cyber-physisches System entsteht aus der Vernetzung eingebetteter Systeme durch drahtgebundene oder drahtlose Kommunikationsnetze und ist durch einen hohen Grad an Komplexität gekennzeichnet. Fast alle kritischen und systemrelevanten Infrastrukturen enthalten cyber-physische Systeme: Stromerzeugung und -verteilung, Trinkwassererzeugung, Lüftungssysteme in Tunneln, U-Bahnen, Zügen und Flugzeugen, militärische Systemvernetzungssysteme sowie Infrastruktursysteme für Kommunikation und Kultur wie z. B. große Veranstaltungsarenen, Verkehrssteuerungs- und Verkehrslogistiksysteme. Hinzu kommen vernetzte Sicherheits- sowie Fahrerassistenzsysteme für Automobile, industrielle Prozesssteuerungs- und Automationssysteme und medizinische Geräte, bei denen eine hohe Zuverlässigkeit verlangt wird. Deshalb sind resiliente Systemarchitekturen notwendig, die trotz unvorhergesehener Auswirkungen von gegenseitigen Abhängigkeiten das gewünschte Systemverhalten sicherstellen.
Cyber-physische Systeme sind extrem anpassungs- und wandlungsfähig und tragen zur Effizienzsteigerung bei. Durch die Vernetzung und die beliebige An- und Einordnung von Daten, Informationen und Diensten können verschiedene Potenziale zukünftig schneller erkannt und effizienter genutzt werden. Ob bei der Datengewinnung und -verarbeitung oder der automatischen Optimierung von Systemen und Personalkapazitäten: Prozesse von cyber-physischen Systemen laufen weitgehend autonom und automatisiert, ohne dass der Mensch eingreifen muss. Diese erfüllen oftmals nur noch Kontroll- und Steuerungsfunktionen. Auch die Arbeitssicherheit, die Geschwindigkeit von Abläufen und die Effizienz von Prozessen lässt sich mit den Cyber-physischen Systemen steigern.
C wie Cynefin-Modell
Das Cynefin-Modell (oder auch -Framework oder -Matrix) wurde 1999 im Kontext von strategischer Organisationsentwicklung vom ehemaligen IBM-Mitarbeiter und Berater Dave Snowden entwickelt. Das walisische Wort “Cynefin” wird sinngemäß mit „Lebensraum” oder „Platz“ übersetzt, obwohl diese Übersetzung nicht seine volle Bedeutung vermitteln kann. Cynefin steht metaphorisch für die Einsicht, dass jedes Individuum und jedes System das Ergebnis seiner eigenen Entwicklungsgeschichte ist bzw. mehrere Vergangenheiten hat. Snowden wählte diesen Begriff, um die evolutionäre Natur komplexer Systeme zu veranschaulichen, inklusive der ihr innewohnenden Unsicherheit.
Das Cynefin-Modell unterscheidet fünf Domänen und schlägt kontextbezogene Lösungsstrategien vor:
- einfache Systeme (Clear, bisher Simple oder Obvious): geringe Anzahl von Informationen und Variablen, die in einer eindeutigen Ursache-Wirkungs-Beziehung stehen und für alle offensichtlich sind. Dieses System kann durch feste Regeln, Checklisten und klare Prozesse sehr einfach geführt werden (Strategie: S-C-R = Sense, Categorise, Respond). Informationen können zuverlässig weitergegeben werden (best practices).
- komplizierte Systeme (Knowable, Complicated): deutliche höhere Anzahl von Informationen und Variablen, die über eine feste Ordnung und lineare Kausalität immer noch relativ einfach geführt werden können (Strategie: S-A-R = Sense, Analyze, Respond). Die Ursache-Wirkungs-Beziehung ist nicht sofort erkennbar oder eindeutig und kann nur im Nachhinein und nicht selten nur durch eine genaue Analyse bewertet werden, für die eine hohe Expertise notwendig ist. Um komplizierte Systeme führen zu können, braucht man Experten (good practices).
- komplexe Systeme (Complex): große Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und eskalierende oder stabilisierende Rückkopplungen verursachen. Es existieren keine linearen Ursache-Wirkungs-Beziehungen, was die Vorhersage der richtigen Strategie erschwert. Daher empfehlen sich zur Führung komplexer Systeme emergente Strategien (emergent practices) bzw. eine “exaptive discovery”. Durch zeitlich begrenztes Ausprobieren kann man Muster erkennen und die Vorgehensweise situativ anpassen (Strategie: P-S-R = Probe, Sense, Respond).
- chaotische Systeme (Chaotic): durch eine unüberschaubare Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und sich extrem schnell verändern können, regiert das Chaos. Es gibt auf der Systemebene keine Beziehung zwischen Ursache und Wirkung. Die einzige valide Strategie in chaotischen „Systemen“ (besser Umgebungen) ist Neues zu probieren, schnell und entschlossen zu handeln um das System zu stabilisieren (novel practices) und somit in komplexe Systeme zu überführen (Strategie: A-S-R: Act, Sense, Respond).
- gestörte Systeme (Disorder): beschreiben den Zustand des Nicht-Wissens, welche Art von Kausalität besteht. Diese Systeme stehen im Zentrum der Cynefin-Matrix und liegen vor, wenn über den Zustand des Systems (einfach, kompliziert, komplex, chaotisch) keine Einigkeit unter den Entscheidern besteht und demzufolge unklar ist, welche Strategie angemessen ist. In der Regel passen die angewendeten Strategien nicht auf das vorhandene Umfeld. Nicht selten führt dies dazu, dass die Beteiligten sich in ihre eigene Komfortzone zurückziehen.
Die Arbeit von Snowden und seinem Team begann zunächst in den Bereichen Wissensmanagement, kultureller Wandel und Gruppendynamik. Sie befassten sich später auch mit einigen kritischen Unternehmensprozessen, wie z. B. Produktentwicklung, Markterschließung und Branding. In jüngerer Zeit umfasste ihre Tätigkeit auch Fragen der Unternehmensstrategie und der nationalen Sicherheit.
Während einfache und komplizierte Systeme durch Ordnung und lineare Kausalität gekennzeichnet sind, fehlt es dagegen in komplexen und chaotischen Systemen an einer grundlegenden Ordnung. Das daraus entwickelte Framework stützt sich auf Forschungen aus der Theorie komplexer adaptiver Systeme, der Kognitionswissenschaft und Anthropologie sowie evolutionären Psychologie und bedient sich hierbei narrativer Muster. Das Modell untersucht die Beziehung zwischen Mensch, Erfahrung und Kontext und eröffnet neue Wege für Kommunikation, Entscheidungsfindung, Richtlinienkompetenz und Konfliktmanagement in einem komplexen sozialen Umfeld. Infolgedessen muss am Anfang die Frage geklärt werden, in welchem Umfeld sich ein Unternehmen, eine Organisation, ein Team oder auch ein Projekt befindet. Man nennt dies einen “common sense” und beantwortet die Frage, ob ein geordnetes Umfeld (einfach, kompliziert) vorliegt oder ein ungeordnetes (komplex, chaotisch) bzw. im worst case ein System schon unter einer Störung leidet. Erst danach können Strukturen festgelegt, Entscheidungsprozesse definiert, Zusammenarbeit organisiert und Führungsrollen ausgestaltet werden. Die Cynefin-Matrix ist als Plattform geeignet, um Transparenz und ein gemeinsames Verständnis sowie ein geeignetes Vorgehen herzustellen. Gerade in Zeiten dynamischer Veränderungen deckt das Cynefin-Modell auf, warum funktionale, auf starren Regelwerken und Hierarchien basierende Organisationen in komplexen Umgebungen ausgedient haben. Diese Erkenntnis gilt sowohl für allgemeine Prozesse der Unternehmenssteuerung wie Strategieentwicklung, als auch für Organisationsentwicklung oder Projektmanagement. Emergente und adaptive Strategien erfordern kleine und selbstorganisierte Teams, dezentrale Entscheidungen und kurze Iterationszyklen. Das Cynefin-Modell erklärt darüber hinaus die Notwendigkeit einer kontextbezogenen Führung. Der Kontext leitet sich hierbei nicht aus einer konkreten Situation ab, sondern dem allgemeinen Umfeld. Während in herkömmlichen Organisationen weiterhin auf gewohnte “Management Best Practices” wie Lenkungsausschüsse, Arbeitskreise, Jour Fixes usw. gesetzt wird, braucht man in komplexen Umgebungen ein völlig neues Führungsverständnis (Servant Leadership). Dieses Verständnis ist geprägt von der Einsicht “nichts zu wissen”, Kommunikation auf Augenhöhe, aktivem Zuhören und der Bereitschaft, Mitarbeiter darin zu befähigen, mehr Verantwortung zu übernehmen und eigene Entscheidungen zu treffen.
Des Weiteren wird das Cynefin-Modell auch angewendet, um Innovationen erfolgreich zu entwickeln, zu implementieren und zu vermarkten. Längst sind sich Innovationsforscher einig, dass echte Innovationen im Grenzbereich zum Chaos entstehen. Gleiches bestätigen im Übrigen auch die Hirnforscher. Wenn radikale oder disruptive Innovationen mit herkömmlichen Methoden wie Business Cases, Zeit-, Budget- und Projektpläne, Analysen und Risikobewertungen umgesetzt werden sollen, sind sie zum Scheitern verurteilt.
CaaS (Containers-as-a-Service)
C wie CaaS (Containers-as-a-Service)
CaaS ist ein Akronym für Containers-as-a-Service und beschreibt ein Geschäftsmodell, bei dem Anbieter von →Cloud-Computing-Plattformen komplette Containerumgebungen inklusive Dienstleistungen zur Verfügung stellen. Zu den containerbasierten Virtualisierungen sowie skalierbaren Dienstleistungen und Services gehören u. a. Orchestrierungstools (auch Orchestrator genannt), eine Reihe von Entwickler-Tools und APIs (Application Programming Interfaces bedeutet Programmierschnittstellen), einen Image-Katalog (die so genannte Registry), eine Cluster-Management-Software sowie die zugrunde liegenden Infrastruktur-Ressourcen. Dabei werden einzelne Anwendungen inklusive aller Abhängigkeiten wie z. B. Bibliotheken und Konfigurationsdateien als gekapselte Instanzen ausgeführt. Dies ermöglicht den Parallelbetrieb mehrerer Anwendungen mit unterschiedlichen Anforderungen auf ein und demselben Betriebssystem und/oder ein Deployment über unterschiedliche Systeme hinweg. Als Containerdienst bezeichnet man den Service eines Anbieters, Software in so genannten Anwendungscontainern zu entwickeln, zu testen, auszuführen oder über IT-Infrastrukturen hinweg zu verteilen. Somit können Anwender Containerdienste in Anspruch nehmen, ohne die dafür benötigte Infrastruktur selbst aufbringen zu müssen. Im Gegensatz zum PaaS-Modell, bei dem sich Software-Entwickler auf die vom Anbieter zur Verfügung gestellten Technologien wie Programmiersprachen oder Frameworks festlegen müssen, bietet Container-as-a-Service dagegen eine vergleichsweise freie Programmierplattform, auf der sich in Containern gekapselte Anwendungen unabhängig von ihren technologischen Anforderungen und Voraussetzungen über heterogene IT-Infrastrukturen hinweg skalieren lassen. Die Bezeichnung ist noch relativ jung und orientiert sich an etablierten →Cloud-Service-Modellen wie →Infrastructure-as-a-Service (IaaS), →Platform-as-a-Service (PaaS) oder →Software-as-a-Service (SaaS). Caas kann in dieser klassischen Aufteilung zwischen IaaS und PaaS eingeordnet werden. Von diesen etablierten Service-Modellen hebt sich Container-as-a-Service jedoch durch einen grundsätzlich anderen Virtualisierungsansatz ab: die Container-Technologie. Die Abrechnung erfolgt nutzungsbezogen im Mietmodell.
Canonical Tag
C wie Canonical Tag
Ein Canonical Tag ist in der Regel im Header (Kopfzeile) einer Webseite als Quellcode hinterlegt. Dieser wird eingesetzt, um Webseiten mit doppeltem Inhalt (Duplicate Content) richtig auszuzeichnen – also einen Hinweis auf die Originalquelle zu setzen. Diese Ursprungsseite wird auch als die „kanonische“ Seite bezeichnet. Hierzu wird der Quelltext mit dem Attribut rel=“canonical“ gekennzeichnet. So verlinkt man von einer oder mehreren Kopien einer Webseite auf das Original und vermeidet somit, dass man von Suchmaschinen wie z. B. Google „abgestraft“ wird. Nicht im rechtlichen Sinn, sondern durch ein schlechteres Ranking. Der Canonical Tag kommt immer dann zur Anwendung, wenn Inhalte mehrfach verwendet werden „müssen“ z. B. in verschiedenen Landingpages, Blogs, in Shopsystemen, digitalen Katalogen oder Plattformen usw. Scannt ein Crawler eine Webseite und findet darauf einen Canonical Tag, erkennt der Bot, dass die verlinkte Seite das „eigentliche“ Original ist, die „kopierten“ Webseiten also im Hinblick auf Duplicate Content ignoriert werden können. Wichtig ist hierbei, dass innerhalb dieses Quellcodes keine Meta-Tags wie „nofollow“, „disallow“ oder „noindex“ vergeben werden. Außerdem werden durch Suchmaschinen Eigenschaften wie z. B. PageRank auf das Original übertragen. Somit ist der Canoncial Tag ein wichtiges Werkzeug für die OnPage Optimierung und zur Vermeidung von Fehlern in der Bewertung von Inhalten.
CAPTCHA
C wie CAPTCHA
CAPTCHA ist ein Akronym für Completely Automated Public Turing test to tell Computers and Humans Apart und beschreibt ein Sicherheitsmechanismus zur Unterscheidung von Mensch und Maschine. Es handelt sich um einen so genannten Challenge-Response-Test, bei denen der Nutzer eine einfache Aufgabe (Challenge) lösen muss und das Ergebnis (Response) zurückschickt. Sinnvollerweise sind die gestellten Aufgaben für Menschen einfach zu lösen, hingegen für Computer sehr schwierig oder unlösbar. Neben einfachen Rechenaufgaben, einem Code oder einer einfachen Frage, die korrekt eingegeben werden müssen, werden auch Bilder verwendet oder mittlerweile Audio-Captchas oder Video-Captchas. Somit soll herausgefunden werden, ob die Interaktion mit einem Mensch oder einer Maschine (Computer, Roboter, Bot) stattfindet. Captchas schützen die Ressourcen und dem Schutz des Anbieters oder Betreibers und nicht, wie vielfach angenommen wird, dem Schutz des Benutzers oder dessen Daten. Im Unterschied zum klassischen →Turing-Test, bei dem Menschen die Frage klären, ob sie mit einem Mensch oder einer Maschine interagieren, dienen Captchas dazu, diese Frage durch eine Maschine beantworten zu lassen. Captcha müssen schnell erweitert oder ständig umgeschrieben werden, da man einem Spambot die Logik antrainieren kann. Durch die zunehmende technische Eskalation der immer intelligenter werdenden Algorithmen stellen Captchas perspektivisch das Problem dar, dass diese auch für den Menschen immer schwieriger zu lösen sein werden. Gelegentlich werden Verfahren zur Unterscheidung von Menschen und Maschinen oder Robotern auch als HIP (engl. Human Interaction Proof) bezeichnet.
CAS (Computer Aided Selling)
C wie CAS (Computer Aided Selling)
CAS ist ein Akronym für Computer Aided Selling und beschreibt computergestützte Informations- und Kommunikationssysteme für den Vertrieb (Innen- und Außendienst) sowie Instrumente und Methoden zur Vertriebsunterstützung und -steuerung. CAS werden eingesetzt, um Vertriebsprozesse effizienter und systematisierter zu gestalten und Verkaufsabschlüsse zu erhöhen. Hierzu zählen Hard- und Software sowie die Übertragung der gewonnenen Informationen zum Innen- und/oder Außendienst. Sie dienen u. a. zur Vorbereitung und Nachbereitung von Kundengesprächen, zur Unterstützung bei Verkaufsgesprächen, der Verwaltung von Angeboten, Aufträgen und weiteren Kundeninformationen, der Kommunikation mit dem Kunden sowie internen Fachabteilungen sowie der Steuerung, Tätigkeits- und Ergebniskontrolle.
Computer Aided Selling wurde erstmals 1993 im Zusammenhang mit Database-Marketing erwähnt und ist heute besser bekannt unter dem Begriff →Customer Relationship Management (CRM) oder gelegentlich auch unter Sales Force Automation (SFA).
Chatbot
C wie Chatbot
Der Begriff Chatbot setzt sich aus dem Verb „to Chat“ (sich unterhalten) und „Robot“ (Roboter) zusammen und ist vereinfacht ausgedrückt ein Roboter, mit dem man sich unterhalten kann. Das Ökosystem aus Technologie und Features dahinter ist allerdings deutlich komplizierter und das Thema Chatbot sehr vielschichtig und komplex. Das technische Dialogsystem ermöglicht den Dialog zwischen Mensch und Maschine und bündelt alle Informationen in einem einzigen Kanal, um die Interaktion mit dem User zu bearbeiten. Die Konversation erfolgt über gesprochenen oder geschriebenen Text. Ein Chatbot bietet dabei immer eine Option der Spracheingabe und -ausgabe, in der Regel mittels eines so genannten Chat-Widgets. Leider ist der Begriff Chatbot in den letzten Jahren zu einem Buzzword in der digitalen Welt verkommen, weil sich viele unspezifische Angebote mit diesem Begriff schmücken und/oder unterschiedliche Varianten synonym verwendet werden. Dabei können bereits kleine technische Änderungen einen großen Unterschied bewirken.
In der Regel werden Chatbots auch als virtueller Assistent bezeichnet und in Verbindung mit einem Avatar auf einer Website oder Messaging-Plattform angeboten, um dort auf Anfragen von Nutzern z. B. zu Produkten, Leistungen oder Services zu reagieren. Ein Chatbot funktioniert entweder auf der Basis von definierten Regeln (auch regelbasiert genannt) oder auf Basis künstlicher Intelligenz. Regelbasierte Chatbots greifen auf ein Regelwerk (auch Expertensystem) von definierten Fragen und Antworten zurück. Daher ist dieser digitale Assistent (auch Klick-Bots genannt) nur bei einfachen und standardisierten Prozessen empfehlenswert.
Intelligente Chatbots basieren meist auf künstlicher Intelligenz und Natural Language Processing und können die Daten aus existierenden Dialogen nutzen, um sich weiter zu entwickeln. Hierbei erkennt das System auch hinter langen oder komplexen Informationen die semantischen Zusammenhänge und nutzt NLP, um die Intention des Nutzers und den Inhalt der Frage zu verstehen. Dadurch können diese Chatbots Verknüpfungen erstellen und somit auch anspruchsvolle und komplexe Dialoge führen. NLP dient der maschinellen Verarbeitung natürlicher Sprache. Das Ziel ist eine intelligente Konversation, wie von einem Menschen geführt, durch künstliche Intelligenz zu imitieren. Hierfür nutzt die KI Methoden aus dem Deep-Learning. Die zwei wichtigsten KI-Prinzipien sind das Reassuring und das Dreaming. Mit Reassuring sind intelligente Rückfragen gemeint. Ist sich ein intelligentes Chatbot nicht sicher, welches Themenfeld mit der Frage gemeint ist, stellt es dem Nutzer eine Rückfrage. Je nach Antwort schärft die KI das Themenfeld und lernt somit mit jeder Anfrage dazu. Somit kann ein intelligentes Chatbot auch Antworten auf vorher nicht gestellte Fragen geben oder eine falsche Fragestellung korrigieren.
Anwendungsspezifische Chatbots mischen regelbasierte und intelligente Dialogsysteme und werten diese durch grafische Oberflächen auf. Mit ihnen wird die Usability und User Experience verbessert.
Churn Prediction Analysis
C wie Churn Prediction Analysis
Neukundengewinnung ist für Unternehmen je nach Branche und Sortiment mit einem Faktor 2 bis 4 mal teurer als Bestandskundenpflege. Die Abwanderung von Kunden ist deshalb für Unternehmen in doppelter Hinsicht mit finanziellen Verlusten verbunden (Umsatz und Gewinn sowie Mehraufwand). Je höher die Zahl der Kunden und somit die Churn Rate ist, die einem Unternehmen den Rücken kehren, umso spürbarer sind die wirtschaftlichen Auswirkungen. Churn Prediction (Abwanderungsvorhersage) ist eine Vorausanalyse und untersucht, bei welchen Kunden das Risiko einer Abwanderung besteht. Dadurch sollen rechtzeitig Indikatoren geliefert werden, um durch gezielte Maßnahmen einer Abwanderung entgegen zu wirken. Diese Analyse ist ein zentrales Element in jeder Vertriebs- und CRM-Strategie. Insbesondere für Geschäftsmodelle, bei denen Abonnements oder Verträge abgeschlossen werden wie z. B. im →Software as a Service (SaaS) Bereich, der Energieversorgung, im Banken- und Versicherungswesen, in der Telekommunikation oder Streamingdienste usw. ist die Vermeidung von Kundenfluktuation essenziell. Churn Prediction Analysis nutzt Kundendaten und Simulationen und basiert auf den Algorithmen maschinellen Lernens und Künstlicher Intelligenz. Somit können effektive und effiziente Voraussagen über mögliche Abwanderungen getroffen und durch eine pro-aktive Churn Management Strategie vorher Maßnahmen ergriffen werden. Dies beugt nicht nur der Fluktuation von Kunden vor, sondern spart auch Budget für die Rückgewinnung ehemaliger Kunden.
Herzstück der Churn Prediction Analysis sind die Ursachen für mögliche Abwanderungsgedanken. Hierbei wird differenziert, ob es sich um Einzelkunden oder Kundensegmente, Kunden eines speziellen Sortimentes oder einer Region und dgl. handelt. Parallel wird das Wettbewerbsverhalten analysiert, um Kausalitäten herzustellen. Alle Frühindikatoren möglicher Kundenabwanderungen dienen der Churn Prediction Modell Interpretation. Für diese können so genannte Shapley Values abgeleitet werden, so dass Modelle besser beschrieben und einfacher erklärt werden. Reine Daten liefern nur die Grundlage; erst die Bewertung und Interpretation lassen generelle Ursachen für Fluktuation oder individuelle Gründe für eine Kündigung erkennen. Um einen Churn Prediction Score zu erstellen, braucht man spezifische Kundendaten und insbesondere Verhaltensweisen, die in der Regel in einem herkömmlichen CRM nicht gepflegt werden. Neben den demographischen Daten gehören hierzu die Nutzungsdaten, Verhaltensdaten, Transaktionshistorie, Interaktion mit dem Kundenservice, Außen- oder Innendienst.
Clean Code
C wie Clean Code
Clean Code ist ein Begriff aus der Softwareentwicklung und beschreibt eine logische, verständliche, nachvollziehbare und disziplinierte Implementierung eines Codes. Das Ziel besteht darin, die Software effizient und effektiv zu entwickeln und den Code dabei so zu gestalten, dass er leicht zu lesen, zu ändern, zu erweitern und zu warten ist. Ein Clean Code ist in der Praxis nicht selbstverständlich, denn auch „unsaubere“ Codes können funktionieren. Allerdings führen diese vermehrt zu Fehlern bei Adaptionen oder Problemen bei Erweiterungen. Um dies zu vermeiden wird zunächst eine Analyse durchgeführt (Clean Analysis) und anschließend das Design aufgesetzt (Clean Design). Auch wenn der Aufwand zur Implementierung eines Clean Code initial höher ist, amortisiert sich dieser über den Lebenszyklus der Software. Infolgedessen ist ein Clean Code nicht nur technologisch nachhaltig, sondern auch ökonomisch sinnvoll.
Closed Innovation
C wie Closed Innovation
Closed Innovation unterscheidet sich von →Open Innovation durch die Art und Weise, wie und wo Innovationen entstehen. Während Closed Innovationen in einem in sich geschlossenen Unternehmensumfeld entwickelt werden, beziehen Open Innovationen externes Wissen und Know-how in das Innovationsmanagement mit ein. Auch wenn die Entwicklung zur offenen Variante tendiert, gibt es gute Gründe für geschlossene Innovationen. Eine der wichtigsten ist der Komplexitätsgrad von Innovationen. Ist dieser besonders hoch, bieten sich Closed Innovation an. Diese stellen nicht nur den Zugriff auf das Know-how sicher, sondern auch auf die Prozesshoheit. Wenn eingesetzte Technologien eng miteinander verknüpft sind, bergen Open Innovation gewisse Risiken, so dass auch in diesem Fall der Closed Innovation der Vorzug gegeben wird. Einflüsse von außen könnten nicht nur dem Innovationsprozess schaden, sondern ggf. auch der aktuellen Produktpalette. Ein Paradebeispiel für Closed Innovation ist Apple mit seinem hochintegrierten und aufeinander abgestimmten Ökosystem. Closed Innovation ist auch dann die bevorzugte Variante, wenn eine Innovation disruptiven Charakter hat und grundlegende technologische Verbesserungen hervorbringt, durch die ein Unternehmen einen USP erzielt und eine echte Differenzierung und einen Wettbewerbsvorteil schafft. Weitere Gründe für Closed Innovation sind zum einen Branchen mit hoher Wettbewerbsdichte und einem intensiven Wettbewerb. Und zum anderen, wenn Innovationskraft, Know-how und Lösungskompetenz im Unternehmen vorhanden sind, so dass das Hinzuziehen externer Kompetenzen nicht notwendig ist. Von der Ideengenerierung über die Entwicklung bis hin zur Vermarktung erfolgt der Innovationsprozess ausschließlich im Unternehmen. Innovationen werden nur innerhalb klar definierter Grenzen des Unternehmens entwickelt. Wissen und Know-how, Technologie und Prozesse bleiben unter Kontrolle des innovierenden Unternehmens. Um geschlossene Innovationen erfolgreich umsetzen zu können, müssen Unternehmen nicht nur höchstqualifizierte Mitarbeiter beschäftigen und einen hochprofessionellen Innovationsprozess aufsetzen, sondern das eigene geistige Eigentum entsprechend schützen. Closed Innovation und Open Innovation können in einigen Fällen auch komplementären Charakter haben.
Der Begriff Closed Innovation geht auf Henry Chesbrough, Professor und Executive Director am Center for Open Innovation an der UC Berkeley zurück, der diesen Begriff erstmals 2003 in seinem Buch „Open Innovation: The new imperative for creation and profiting from technology“ erwähnte. Die Wurzeln der geschlossenen Innovation gehen allerdings auf den Anfang des 20. Jahrhunderts zurück, als z. B. Universitäten noch nicht an der kommerziellen Verwertung von Wissenschaft beteiligt waren. Die gesamte Nachkriegszeit bis in die 1990-er Jahre war von geschlossenen Innovationen geprägt und gilt als die Ära der internen Forschung und Entwicklung. Der Aufbau interner F&E-Ressourcen wurde als einer der entscheidenden Wettbewerbsvorteile gesehen. Aus dieser Zeit stammt auch der Begriff „Not Invented Here“-Syndrom, das die Geisteshaltung von Unternehmensführungen ganz gut beschreibt.
Cloud Computing
C wie Cloud Computing
Cloud Computing, oft auch nur als „die Cloud“ bezeichnet, beschreibt ein Modell, bei dem bei Bedarf zeitnah geteilte Computerressourcen als Dienstleistung bereitgestellt und nach Nutzung abgerechnet werden. Diese Bereitstellung erfolgt in Form von Rechenzentren, Servern, Datenspeicher oder Applikationen, in der Regel über das Internet und geräteunabhängig. Das Angebot sowie Art und Umfang der Nutzung dieser Computerressourcen ist definiert und erfolgt in der Regel über eine Programmierschnittstelle (API) bzw. für Anwender über eine Website oder App. Infolgedessen werden die Daten nicht lokal auf dem eigenen Computer oder Server abgelegt, sondern befinden sich an einem beliebigen anderen Ort, der oft mit einer Datenwolke („Cloud“) illustriert wird. Die Vorteile sind flexible, skalierbare Ressourcen, die schnell und einfach an den Bedarf angepasst werden können sowie ein nutzungsabhängiger Service, bei dem nur die tatsächlich genutzten Ressourcen bezahlt werden.
Beim Cloud Computing wird zwischen verschiedenen Konzepten unterschieden:
- bei „Infrastructure-as-a-Service“ (IaaS) können Nutzer über das Internet direkt auf einzelne virtuelle Ressourcen zugreifen wie z. B. Netzwerkkomponenten, Server oder Speicher.
- „Software-as-a-Service“ (SaaS) erlaubt es Nutzern, Software-Anwendungen über das Internet zu nutzen, ohne diese auf dem eigenen Computer zu installieren.
- „Platform-as-a-Service“ (PaaS) ist vor allem für Entwickler interessant, die gemeinsam Programme über das Internet entwickeln und anbieten wollen.
Cobots
C wie Cobots
Kollaborative Roboter oder Cobots (Abkürzung des englischen Begriffs „collaborative robot“) bekommen eine immer größere Bedeutung. Herkömmliche Industrieroboter werden in immer mehr Bereichen der Industrie durch kollaborative Roboter ersetzt oder erweitert. Cobots kommen in Zusammenarbeit mit Menschen im Produktionsprozess zum Einsatz und sind dabei nicht mehr wie der typische industrielle Roboter durch Schutzeinrichtungen von ihren menschlichen Kollegen getrennt. Sie sind im Vergleich zu traditionellen Industrierobotern kompakter, flexibler einsetzbar und leichter zu programmieren. Dabei ersetzen Cobots nicht die Arbeitsplätze des Menschen, sondern ergänzen diese. Die Unternehmensberatung Boston Consulting Group geht davon aus, dass der Einsatz von Cobots die Produktivität pro Mitarbeiter zukünftig um bis zu 30 Prozent steigern wird.
Co-Creation
C wie Co-Creation
Co-creation ist eine Innovationsmethode, bei der Unternehmen Externe wie z. B. Lieferanten, Kunden, Experten aus Forschung und Entwicklung oder Partnerunternehmen durch Kollaboration in den Entwicklungsprozess von Produkt-, Prozess-, Service-, Vertriebs- oder Geschäftsmodellinnovationen mit einbeziehen. Co-creation und Open Innovation werden häufig synonym verwendet, obwohl Open Innovation noch einen Schritt weiter geht und die Öffnung des Innovationsprozesses und -managements beschreibt.
Cognitive Computing
C wie Cognitive Computing
Individualisierung und Personalisierung ist einer der Megatrends. Im Zuge dessen passen sich Maschinen immer mehr dem Menschen an. Cognitive Computing verfolgt den Ansatz, dass digitale Technologien wie das menschliche Gehirn funktionieren. Kognitive Systeme sind, im Gegensatz zu heutigen Standardtechnologien, mit künstlicher Intelligenz wie Deep Learning oder Data Mining ausgestattet. Maschinen lernen von ihren Anwendern und entwickeln sich kontinuierlich weiter, um menschliche Lern- und Denkprozesse zu simulieren. Das Ziel ist, auf Basis von Daten aus der Vergangenheit eigene Lösungen für die Gegenwart und Strategien für die Zukunft zu entwickeln. Kognitive Systeme sind im Vorfeld nicht auf konkrete Problemlösungen programmiert, sondern lernen selbstständig durch die gemachten Erfahrungen und gesammelten Daten. Sie entwickeln eigene Lösungen und Strategien durch die Analyse der Datenbasis. Diese Systeme interagieren in Echtzeit mit ihrem Umfeld und verarbeiten große Datenmengen. Hierfür wurden spezielle Chips entwickelt, die sich am menschlichen Gehirn orientieren. Mit ihrer Unterstützung werden kognitive Prozesse nachgebildet und Computer anpassungsfähiger. Diese komplexe Hardware und die Interfaces machen den Unterschied zu klassischen Anwendungen künstlicher Intelligenz aus. Kernkomponenten des Cognitive Computing sind Algorithmen des maschinellen Lernens, die die vorliegenden Daten kontinuierlich nach Mustern untersuchen und ihre Analysemethoden ständig verfeinern. Wichtig ist, dass beim Cognitive Computing sämtliche Informationen in ihrem Kontext wahrgenommen werden. Hierzu gehören kontextbezogene Merkmale wie z. B. Zeit, Ort und Personen, die die Bedeutung von Informationen beeinflussen. Zum Einsatz kommen text-, sprach- oder gestenbezogene Eingaben.
Cogs
C wie Cogs
Cogs sind Anwendungen des →Cognitive Computing. Sie verstehen Sprache und erkennen in einem Satz das Subjekt, Prädikat und Objekt. Cogs durchforsten bei Fragestellungen das Internet und suchen parallel nach Pro und Contra, nach Antworten und deren subjektiver Bewertung durch User. Über Spracherkennung können Algorithmen zur Stimmung des Users abgeleitet werden, um eine Aussage in ihrer Subjektivität beurteilen zu können. Informatiker sprechen von Ontologien.
Während bisherige Apps nur in der Lage waren, Texte zu erkennen und zu analysieren, beginnen Cogs damit, Hypothesen aufzustellen und diese mit Wahrscheinlichkeiten zu gewichten. Die eigentliche Weiterentwicklung beginnt erst, wenn die Ergebnisse mit richtig oder falsch bewertet werden. Cogs sind in der Lage, unsinnige Fragen zu erkennen und weichen nicht durch eine „vorprogrammierte“ Standardantwort aus, wie dies häufig bei digitalen Sprachassistenten der Fall ist. Sie erlauben sich, auch mal auf eine Frage mit „Bullshit“ zu antworten, wie Watson 2013, als ihm eine bewusst unlogische Übungsfrage gestellt wurde.
Cogs sind auf gutem Weg, Verknüpfungen zwischen Nervenzellen und somit das Denken zu simulieren. Sie finden mit der Zeit autonom heraus, ob ihnen gelieferte Informationen helfen. Daher ist es auch weniger kritisch, ob ihnen „gute oder schlechte Daten“ zur Verfügung gestellt werden. Durch dieses Feedback minimieren Cogs ihre eigene Fehlerquote und perfektionieren sich selbst – der Beginn der so genannten Superintelligenzen. Möglich sind alle diese Entwicklungen, da die Cogs beginnen, die menschlichen Sinne zu imitieren. Wissenschaftler arbeiten bereits daran, ein Backup des menschlichen Gehirns auf dem Computer abzuspeichern, um Verknüpfungen (Synapsen) aus Logik und Intuition herzustellen.
Mögliche Einsatzgebiete und Anwendungen sind gigantisch. Erste Ansätze dienen z. B. zur Analyse von Schlafstörungen und Depressionen oder Krankheiten per Biomarker zu „erriechen“. Besonders interessant sind Ansätze in Bezug aufs Schmecken und Fühlen. Erste Prototypen von Cogs können über Geschmacksrezeptoren die Zusammensetzung von Lebensmitteln erkennen und mögliche Gefahren, zum Beispiel bei Allergikern, aufzeigen. Andere Cogs machen das „Fühlen“ erlebbar. Über spezifische Vibrationsmuster können Texturen vermittelt werden, so dass nahezu jede Art von Oberfläche und das zugehörige Empfinden dieser simuliert werden kann. Für die Bekleidungsindustrie wäre diese Technologie ein Quantensprung, da Mode auch im Onlinegeschäft für Kunden „erfühlbar“ werden würde.
Collaborative Innovation Canvas
C wie Collaborative Innovation Canvas
Der Collaborative Innovation Canvas betrachtet das Innovationsmanagement in einer multidimensionalen Ebene. Zentrales Element ist die Value Proposition. In der horizontalen Ebene werden die unterschiedlichen Perspektiven der am Innovationsprozess Beteiligten betrachtet. Hierzu gehört die
- Unternehmensperspektive (Shareholder, Strategie, KPI)
- Prozessperspektive (Kennzahlen, Entscheidung, Umsetzung)
- Teamperspektive (Kompetenzen, Kultur, Kommunikation)
- Markt-/Kundenperspektive (Marktumfeld, Kundensegment, Kundenbeziehung)
und das sich daraus resultierende Befähigungsmodell. In der vertikalen Ebene wird das Werteversprechen, die Werteerfassung sowie die operationalisierte Wertschöpfung unterschieden. Sie spiegelt die strategische, konzeptionelle und operative Ebene. Die dritte Dimension wird durch eine diagonale Ebene dargestellt, mit der die beiden Pole zwischen dem technologiegetriebenen Push-Ansatz und dem marktgetriebenen Pull-Ansatz gegenüber gestellt werden.
Der Collaborative Innovation Canvas by e‑nnovalytics® ist die treibende Kraft hinter einem erfolgreichen Innovationsmanagement und vereint die strategische und operative Ebene genauso wie die unterschiedlichen Perspektiven und Interessen. Außerdem schafft er die Grundlage für eine innovationsfreundliche Unternehmens- und Projektkultur.
Company Builders
C wie Company Builders
Company Builders ist ein Begriff, der häufig im Zusammenhang mit Startups und synonym zu →Inkubator oder →Accelerator verwendet wird. Company Builders unterscheiden sich von Inkubatoren und Acceleratoren darin, dass diese überwiegend aus dem eigenen Unternehmen kommen. Es werden eigene Ideen entwickelt und das passende Team intern zusammengestellt. Dadurch haben Company Builders eine deutlich größere Mitgestaltung sowie Rolle bei der Mitentwicklung, Vermarktung und Skalierung neuer Unternehmen. In der Unternehmensentwicklung sind sie über alle Wachstumsphasen hinweg intensiv involviert. Das Ziel besteht darin, bestehende oder neue Geschäftsfelder mit eigenen Kompetenzen und Ressourcen zu entwickeln oder weiter zu entwickeln. Im Gegensatz zum klassischen eigenständigen Company Builder verfolgt der Corporate Company Builder das Ziel, neue Geschäftsmodelle nicht nur zu entwickeln und aufzubauen, sondern diese in die Unternehmensstruktur als Geschäftseinheit, Spin-out oder Beteiligung zu konsolidieren. Company Builders verfügen über die nötigen finanziellen Ressourcen, das Netzwerk und Managementkompetenzen. Ihr Ziel ist es, möglichst viele stark wachsende und kommerziell erfolgreiche Startups hervorzubringen.
Concierge MVP
C wie Concierge MVP
Concierge MVP ist eine besondere Variante des →Minimum Viable Products. Hierbei wird der Kundenauftrag für die Testphase manuell ausgeführt, der später im Geschäftsmodell automatisiert erfolgen soll. Den Begriff prägte Eric Ries 2012 mit dem Konzept →Lean Startup. Bevor man mit viel Zeit- und Kostenaufwand einen (perfekt) automatisierten Dummy investiert, wird das Prinzip bzw. prinzipielle Leistungsversprechen beim Kunden manuell getestet. Der Aufwand ist zunächst etwas höher, dafür bekommt das Team eine wertvolle Lernkurve. Dadurch erfährt man, ob es einen Bedarf an dem gibt, was man anbietet, wie der spätere Prozess genau aussehen wird und was der Kunde bereit ist, dafür zu zahlen usw. Der Vorteil beim Concierge MVP besteht darin, dass nicht einmal ein →Prototyp gebaut werden muss.
Corporate Digital Responsibility (CDR)
C wie Corporate Digital Responsibility (CDR)
Digitale Transformation wird in der Regel mit technologischem Fortschritt und wirtschaftlichem Wachstum in Verbindung gebracht. Die gesellschaftlichen Dimensionen und sozialen Aspekte dieser Entwicklung kommen in der Regel zu kurz. Corporate Digital Responsibility (CDR) bezieht sich auf die Unternehmensverantwortung in einer digitalen Gesellschaft und berücksichtigt die gesellschaftlichen, ökonomischen und ökologischen sowie sozialen Veränderungen durch die Digitalisierung. Der Begriff tauchte 2016 erstmals auf und steht für die freiwillige Selbstverpflichtung zum nachhaltigen Wirtschaften von Unternehmen. Er ist ein wichtiger Erfolgsfaktor und kulturprägend in der digitalen Transformation von Unternehmen. Da der digitale Wandel mittlerweile tiefgreifende Veränderungen in allen Branchen verursacht, ist CDR nicht nur für Digital- oder IT-Unternehmen relevant, sondern für alle Unternehmen mit einem digitalen Geschäftsmodell. Neben Selbstverständlichkeiten wie der Einhaltung und Erfüllung gesetzlicher Anforderungen und Standards sowie dem Umgang mit Kundendaten, Datenschutz sowie geistigem Eigentum usw. erstreckt sich CDR auch auf umfassende ethische Überlegungen und moralische Werte, nach denen ein Unternehmen agiert. Hinzu kommt die Beachtung digitaler Nachhaltigkeit z. B. im Umgang mit „digitalen Artefakten“ wie Big Data, Smart Data, Algorithmen und Künstlicher Intelligenz. Diese stehen oftmals im Widerspruch zu grundlegenden Verfassungswerten wie Humanität, Solidarität und Verantwortung. Corporate Digital Responsibility (CDR) greift die Probleme auf, die sich u. a. aus der Lücke oder Defiziten digitaler Fähigkeiten ergeben (ein Viertel aller Deutschen stehen aufgrund fehlender Kompetenzen im „digitalen Abseits“) oder in der „unethischen“ Nutzung von Kundendaten und der „Korruption“ der digitalen Selbstbestimmung. Ein weiteres Thema ist der ungleiche Zugang sowie der ökologische Fußabdruck der digitalen Technologie. Außerdem setzt sich CDR mit dem Druck auf Gemeinschaft und Wohlbefinden auseinander, der z. B. durch einen „Kollaps der Realität“ in den sozialen Medien entstanden ist und noch weiter zu eskalieren scheint oder auch dem Problem einer intransparenten digitalen Welt, deren „unsichtbare“ Regeln von der Gemeinschaft nicht kontrolliert werden können. Corporate Digital Responsibility (CDR) setzt sich in gleicher Weise mit der Nutzung von Chancen und Potenzialen sowie dem Abwenden von Risiken und Nachteilen auseinander. Das höhere Ziel besteht darin, einen „Shared Value“ im digitalen Wirtschaften für Gesellschaft und eigenem Unternehmen und somit neue Wertschöpfungsketten zu generieren.
Coverage-Faktor
C wie Coverage-Faktor
Der Coverage-Faktor zeigt in der Marktforschung an, zu wie viel Prozent eine Untersuchung den Gesamtmarkt abdeckt. Eine Coverage von z. B. 75% besagt, dass die ermittelten Marktdaten zu Dreiviertel den Gesamtmarkt abdecken.
Co-Working Space
C wie Co-Working Space
Co-Working bedeutet wörtlich übersetzt “nebeneinander arbeiten“ und trat als Konzept Anfang der 2000-er Jahre erstmals in den USA unter dem Begriff „Shared Workspace“ auf. Die im Silicon Valley in Kalifornien entstandene Arbeitsform bezeichnet einen zeitlich flexiblen Arbeitsplatz, den sich mehrere Menschen teilen. Dieser findet in so genannten „Co-Working Spaces“ statt, von denen der erste im Jahr 2005 in San Francisco eröffnet wurde. Typisch sind große Räume mit offener Architektur. Zu Beginn als reines Phänomen in Großstädten und Metropolen zu beobachten, hat sich das Konzept mittlerweile weltweit sowohl als neue Arbeitsform im Sinne der Arbeit 4.0 (New Work) etabliert und findet zunehmend auch im ländlichen Raum statt. Anders als in einem herkömmlichen Business Center sind Co-Working Spaces „sozialer“. Sie haben sich neben dem klassischen Arbeitsplatz im Unternehmen und dem Home Office als „dritte Orte“ entwickelt, die sich vor allem durch Flexibilität, Unabhängigkeit und Zugänglichkeit auszeichnen. So können die Co-Worker (Nutzer) aus verschiedenen Tarifen wählen, wann, wie häufig und wie lange sie den Space nutzen wollen und welche technischen Angebote und digitalen Dienstleistungen sie in Anspruch nehmen. Hierzu werden so genannte Plug and Play-Arbeitsplätze angeboten: volle Arbeitsplatz-Infrastruktur, Service, Reinigung, Nebenkosten, Highspeed-Internetzugang, Kaffee-Flatrate und manchmal auch Fitnessräume oder andere Angebote zum physischen oder psychischen Ausgleich.
Eine der Leitideen von Co-Working Spaces ist, dass dort Menschen verschiedenster beruflicher Qualifikationen, Erfahrungen und Kompetenzen aufeinandertreffen, so dass durch Interaktion Synergien genutzt werden und neue Ideen und Projekte entstehen. Als multifunktionale Begegnungsräume bilden Co-Working Spaces einen Indikator für innovative Kollaboration und dem Ausbau persönlicher Netzwerke. Darüber hinaus finden oft Veranstaltungen und Workshops von und für die Co-Worker statt, die zum einen den Community-Gedanken, gleichzeitig aber auch die berufliche Weiterbildung fördern. Vor allem das Miteinander und die Gemeinschaft innerhalb der Co-Working Spaces bilden einen großen Vorteil gegenüber dem Arbeiten im Home Office, wo man beruflich und sozial oft isoliert ist.
Nahezu alle Co-Working Spaces verfolgen die gleichen fünf Grundwerte: Zusammenarbeit, Community, Nachhaltigkeit, Offenheit und Zugänglichkeit. Diese repräsentieren einen neuen Work-Life-Style, der durch einen Ideen- und Informationsaustausch geprägt ist und die Arbeitsumgebung gleichzeitig zu einer Lernumgebung umfunktioniert.
Cradle-to-Cradle (C2C)
C wie Cradle-to-Cradle (C2C)
Cradle-to-Cradle kann sinngemäß „vom Ursprung zum Ursprung“ übersetzt werden und beschreibt im Prinzip einen Ansatz für eine durchgängige und konsequente Kreislaufwirtschaft. Dieses Denken in Kreisläufen wurde Ende der 1990er-Jahre von dem deutschen Chemiker Michael Braungart und dem US-amerikanischen Architekten William McDonough entworfen. In ihrer Philosophie sind Produkte nach dem „Cradle-to-Cradle-Prinzip“ solche, die entweder als biologische Nährstoffe in biologische Kreisläufe zurückgeführt oder als „technische Nährstoffe“ kontinuierlich in technischen Kreisläufen gehalten werden können, also durch Wiederaufbereitung wieder dem Kreislauf zugeführt werden. Hierbei darf nicht nur der funktionale Nutzen im Mittelpunkt stehen, sondern auch die Verwendung der Rohstoffe nach der Nutzung. Kostbare Ressourcen werden nicht verschwendet, sondern wieder verwendet.
Cradle-to-Cradle basiert auf einer radikalen Denkweise in Kreisläufen und orientiert sich dabei an der Natur, denn biologische Kreisläufe lassen keinen Abfall zurück. Der perfekte Kreislauf bedeutet im Endeffekt nichts anderes als ein völliges Umdenken im Produktlebenszyklus der Produkte – angefangen vom Produktdesign, der Gewinnung der Rohstoffe, der Produktion und dem Inverkehrbringen, der Nutzung bis hin zur Rücknahme und Wiederverwendung. Das Ergebnis wäre eine Welt ohne Müll. Der Cradle-to-Cradle-Ansatz schließt auch die umweltfreundliche Produktion und die Nutzung von erneuerbaren Energien mit ein, also den biologischen und technischen Kreislauf.
Aktuell basiert unsere auf Effizienz getrimmte und auf Gewinnmaximierung ausgerichtete Absatzwirtschaft noch auf das genaue Gegenteil. In der Abfallwirtschaft spricht man deshalb vom Cradle-to-Grave-Prinzip, das nichts anderes bedeutet, dass Produkte nach dem Ende ihrer Nutzung auf dem Müll landen. Zur Produktion werden immer wieder neue Rohstoffe benötigt, die bekanntlich endlich sind – von der Umweltverschmutzung durch den Müll abgesehen. Braungart und McDonough haben im Kontrast zu „Ökobilanz“ (die den Stoffkreislauf und dessen Umweltwirkungen „von der Wiege bis zur Bahre“ analysieren) und „Ökoeffizienz“ auch den Begriff „Ökoeffektivität“ geprägt.
Cradle-to-Grave-Prinzip
C wie Cradle-to-Grave-Prinzip
→Cradle-to-Cradle-Prinzip
Creative Problem Solving
C wie Creative Problem Solving
Creative Problem Solving ist eine Kreativtechnik aus den 1950-er Jahren und wurde von Alex Osborn und Sidney J. Parnes entwickelt. Nachdem Alex Osborne zuvor die Grundregeln des Brainstormings beschrieben hatte, wollte er ein Modell für den gesamten Prozess der kreativen Problemlösung entwickeln. Hierbei unterschied er zwischen zwei grundlegenden Denkweisen, die im Creative Problem Solving Prozess stattfinden:
- divergentes Denken (Denken in vielen Optionen) und
- konvergentes Denken (Evaluierendes Denken, Entscheidungen treffend)
Isaksen und Treffinger entwickelten den Creative Problem Solving Prozess in den 1990-er Jahren weiter und unterschieden in drei Phasen und sechs Teilschritte:
- Explore the Challenge (Erkunden der Herausforderung)
1.1 Mess Finding (Bestimmen des Ziels)
1.2 Data Finding (Sammeln von notwendigen Informationen)
1.3 Problem Finding (Identifizieren des Problems, das gelöst werden muss, um das Ziel zu erreichen)
- Generate Ideas (Generieren von Ideen)
2.1 Idea Finding (Generieren von Ideen für die Lösung des identifizierten Problems)
- Prepare for Action (Handlung vorbereiten)
3.1 Solution Finding (Ausarbeiten von Ideen zu einer umsetzbaren Lösung)
3.2 Acceptance Finding (Handlungsschritte planen)
Cross-Impact-Analyse
C wie Cross-Impact-Analyse
Die Cross-Impact Analyse beschreibt eine Prognosetechnik. Hierbei handelt es sich um eine aufwändige Methode zur Erstellung und Beurteilung von Szenarien mit vielen, nicht analytisch eindeutig zu identifizierenden Faktoren. Mit der Wechselwirkungsanalyse werden Zusammenhänge (engl. cross impact) zwischen verschiedenen zukünftig möglicherweise auftretenden Ereignissen simuliert, anschließend analysiert deren gegenseitige Auswirkungen bewertet. Die meisten Ereignisse bzw. Entwicklungen stehen auf irgendeine Art und Weise mit anderen Ereignissen und Entwicklungen in Beziehung (Korrelation). Andere Prognosetechniken wie z. B. die →Delphi-Methode können nur abgegrenzte Problemstellungen betrachten. Verknüpfungen und deren Abhängigkeiten werden hierbei nicht berücksichtigt. Die Cross-Impact-Analyse schließt diese Lücke und wird u. a. in der →Szenario-Technik eingesetzt.
Das Grundprinzip der Cross Impact Matrix (CIM) ist die Gegenüberstellung von Ereignissen in einer Matrix. Hierbei werden die betrachteten Ursachen und möglichen Wirkungen ins Verhältnis gesetzt und somit die Wechselwirkungen erfasst. Die geschätzte Eintrittswahrscheinlichkeit dient als Anfangswert für eine numerische Simulation. In jedem Kreuzungspunkt der Matrix tragen befragte Experten unabhängig voneinander ein, wie sie den Einfluss der jeweiligen Ursache auf die zugehörige Wirkung einschätzen. Dies kann in einer einfachen Symbolik (positiver Einfluss, kein Einfluss, negativer Einfluss) sein oder in einer Zahlenskala (meist von -3 bis +3). Aus den Einzelergebnissen wird eine gemeinsame Matrix berechnet. Hierfür wird häufig eine →Monte-Carlo-Simulation verwendet. Diese wird anschließend den Experten zur Beurteilung vorgelegt.
Die Cross-Impact-Matrix dient der Beurteilung der Eintrittswahrscheinlichkeit verschiedener, möglicher Zukunftsszenarien (Futuribles genannt). Sie hat einen deskriptiven Charakter und soll nicht zur Entscheidungsfindung dienen, sondern zur Orientierung. Bei komplexeren Fragestellungen kommt eine Simulationssoftware zum Einsatz. Anwendungsgebiete sind volkswirtschaftliche Zusammenhänge wie z. B. die Analyse des Weltölmarktes oder die Liberalisierung des Energiemarktes. Des Weiteren wird die Cross-Impact-Matrix auch gerne in der Abschätzung der Technologieentwicklung und ihrer Auswirkungen eingesetzt. Selbst für kleinere Analysen z. B im Rahmen einer detaillierten Businessplan-Entwicklung kann die Cross-Impact-Analyse sinnvoll sein, z. B. wenn verschiedene Business-Cases betrachtet und bewertet werden.
Die Cross-Impact-Analyse zeigt bei einer kritischen Betrachtung einige Schwächen auf. So erfolgt die Auswahl und Beurteilung der relevanten Faktoren subjektiv. Des Weiteren baut die Analyse auf Datenpaaren auf und ignoriert, dass in der realen Welt mehrere Entwicklungen ein Ereignis gleichzeitig beeinflussen können. Das Sammeln und Auswerten der Daten kann sehr zeitaufwendig sein, gleichzeitig ist gerade die ausführliche Auseinandersetzung mit verschiedenen Einflussfaktoren und deren Auswirkungen einer der größten Stärken der Cross-Impact-Analyse. Sie liefert oft Denkanstöße für alternative Vorgehensweisen.
Crowdfunding
C wie Crowdfunding
→Crowdsourcing
Crowdsourcing
C wie Crowdsourcing
Der Begriff Crowdsourcing wurde geprägt vom amerikanischen Autor Jeff Howe. Er setzt sich aus den englischen Wörtern Crowd (Menge, Menschenmasse) und Outsourcing (Auslagerung) zusammen. Beim Crowdsourcing (auch Crowdworking genannt) verlegt eine Organisation traditionell interne Aufgaben und Prozesse nach außen. Eine Gruppe Externer (so genannte Crowdsourcees) wie z. B. Kunden, Geschäftspartner, Branchenexperten oder auch eine hochmotivierte und engagierte Community z. B. im Rahmen eines Hackathons, die an Innovation und Disruption interessiert ist, beteiligen sich aktiv an ausgelagerten Aufgabenstellungen. Crowdsourcing wird auch zur Ideenbewertung eingesetzt, wenn Unternehmen im Rahmen von Open Innovation Projekten mehrere Ideen bewerten muss.
Crowdsourcing ist hierbei eine interaktive Form der Zusammenarbeit, die kollaborativ oder wettbewerbsorientiert erfolgen kann. Hierzu wird eine Anzahl extrinsisch oder intrinsisch motivierter Experten mit einem unterschiedlichen Wissensstand einbezogen. Gegenstand sind in der Regel Produkte oder Dienstleistungen mit einem unterschiedlichen Innovationsgrad, die durch die Gruppe reaktiv aufgrund externer Anstöße oder proaktiv durch selbsttätiges Identifizieren von Bedarfen entwickelt werden.
Das Bündeln dieses Wissens vieler Experten wird auch als Schwarmintelligenz oder kollektive Weisheit bezeichnet. Erst durch die Entwicklung des Web 2.0 mit seinen sozialen Netzwerken und neuen Informations- und Kommunikationssystemen ist das gemeinschaftliche Entwickeln, Diskutieren, Weiterdenken und Optimieren von Ideen in der Masse möglich. Crowdsourcing erhöht die Geschwindigkeit, Qualität, Flexibilität, Skalierbarkeit und Vielfalt bei verringerten Kosten und bringt neue Ideen und Perspektiven ein.
In den letzten Jahren haben sich besondere Formen rund um das Crowdsourcing etabliert und werden teilweise synonym verwendet, was nicht immer korrekt ist. Co-creation bezeichnet die gemeinsame Produktentwicklung von Unternehmen und einer Gruppe Externer. Von der Entwicklung der Idee über die Implementierung bis zum Verkauf sind die Externen beteiligt. Beim Crowdfunding (Schwarmfinanzierung) geht es primär darum, Kapitalgeber zu gewinnen. Weniger im Sinne eines Investors oder Inkubators, sondern über Viele, die sich zusammenschließen sich finanziell mit Eigenkapital an der Unterstützung von Projekten, Produktentwicklungen oder Geschäftsideen beteiligen. Das Testen von Prototypen und ersten Anwendungen durch eine freiwillige Gruppe wird Crowdtesting genannt. Dadurch ist es möglich, Entwicklungen vor der offiziellen Markteinführung auf unterschiedlichsten Systemen auf Fehler zu prüfen und ihre Usability zu optimieren. Open Source heißt übersetzt offene Quelle und steht für öffentlich verfügbare Quelltexte bei Software. Programme dürfen je nach Lizenz verwendet, weitergegeben, verändert und damit auch weiterentwickelt werden. Im Unterschied zum klassischen Crowdsourcing, bei dem es in der Regel ein Verhältnis von Auftraggebern (in der Regel Unternehmen) und Auftragnehmern (Mitglieder der Crowd) gibt, entstehen Ergebnisse bei Open Source dezentral. Wissen wird nicht wie in der Regel bei Crowdsourcing gegen Vergütung oder andere Incentives erarbeitet, sondern in der Regel frei zur Verfügung gestellt. Entscheidet sich eine Organisation für Open Innovation öffnet sie ihren Innovationsprozess über die Unternehmensgrenzen hinaus. Bei der Produktentwicklung fließen Ideen sowohl aus der internen Organisation als auch durch Externe ein wie z. B. durch Kunden, Lieferanten, Geschäftspartnern oder Hochschulen und Forschungseinrichtungen etc. Unternehmen nutzen dafür auch das Crowdsourcing.
Crystal Methode
C wie Crystal Methode
Crystal ist der Oberbegriff für verschiedene agile Methoden in der Softwareentwicklung. Die einzelnen Methoden wurden zur Unterscheidung nach Farben (Crystal Clear, Crystal Yellow, Crystal Orange, …) bezeichnet. Die einfachste Variante Crystal Clear eignet sich für Teamgrößen von zwei bis sechs Personen, die anderen Varianten heißen Crystal Blue, Crystal Magenta, Crystal Red, Crystal Orange Web, Crystal Orange und Crystal Yellow. Sie spiegeln die jeweiligen Teamgrößen der entsprechenden Projekte wider. Abhängig von der Teamgröße und der sich daraus ergebenden Crystal Variante verändern sich auch die Anzahl der Rollen, der Dokumentationsumfang und die Menge der Methoden, die eingesetzt werden.
Die Entwicklung der Methode geht auf Alistair Cockburn zurück. Anfang der 1990-er Jahre sollte er für IBM Consultings eine Methode entwickeln, die der objektorientierten Entwicklung diente. Anders als heute gab es vor 30 Jahren keine agilen Methoden, mit denen die Aufgabenstellung gelöst werden konnte – es gab diese nicht mal, um neue Ideen damit abzugleichen. Infolgedessen ging Cockburn ganz klassisch vor und analysierte extrem viele Projekte und führte Interviews mit den Projektbeteiligten durch. Hierbei kam er zu dem Ergebnis, dass jedes Projekt seine Eigenart hat und mit anderen Projekten kaum vergleichbar ist. Eine seiner ersten Erkenntnisse war, dass unterschiedliche Projekte mit verschiedenen Herausforderungen und heterogener Teambesetzung mit einheitlichen und uniformen Regeln nicht erfolgreich umgesetzt und der Individualität eines jeden Projektes nicht gerecht werden können. Eine weitere Erkenntnis war, dass nur eine regelmäßige Kommunikation im Projektteam die notwendige Transparenz schafft sowie Motivation und Identifikation hochhält. Beides hielt Cockburn für den Erfolg oder Misserfolg für essenziell. Cockburn ergänzte die erfolgskritischen Faktoren noch um drei Bausteine:
- die Anzahl der Projektmitarbeiter, die koordiniert werden müssen
- die so genannte Kritikalität, mit der eingestuft werden kann, ob sich Fehler in der Softwareentwicklung nur auf den Komfort des Anwenders (niedrigste Stufe), den finanziellen Mehraufwand für den Auftraggeber, den Fortbestand des Unternehmens oder sogar auf Menschenleben (höchste Stufe) auswirken können
- Prioritäten, die individuell und nach Bedarf bestimmt werden.
Alle Crystal-Methoden weisen folgende, gemeinsame Merkmale auf:
- Der Kunde erhält regelmäßig (mindestens pro Quartal) eine funktionierende Zwischenversion der Software
- Permanente Suche, Bewertung und Priorisierung von Verbesserungsvorschlägen
- Probleme und Meinungsverschiedenheiten (sowohl innerhalb des Teams als auch zu Vorgesetzten) werden offen angesprochen
- Die Kommunikation innerhalb des Teams und zum Kunden ist eng und intensiv
- Auf Kundenseite muss ständig ein kompetenter Ansprechpartner als Benutzer des zukünftigen Produktes erreichbar sein
- Alle am Projekt beteiligten Mitarbeiter arbeiten grundsätzlich lösungs- und zielorientiert
- Einsatz von Versionsverwaltung bzw. einem Konfigurations-Management
- Häufige (automatisierte) Tests von Programmcode sowie regelmäßige Erstellung einer lauffähigen Testversion.
Crystal-Methoden haben ihre Stärken im Bereich User-Testing, Qualitätsmanagement und in der Implementierung. Mittel bis schwach ausgeprägt sind dagegen Projektmanagement, Requirement-Management, die Integration und Einführung sowie Wartung. Ungeeignet ist die Methode für technische Konzeption und Systemdesign.
Culture in Action Index (CIA)
C wie Culture in Action Index (CIA)
Eine der essenziellen Herausforderungen bei der digitalen Transformation von vor allem etablierten und traditionellen Unternehmen ist die Veränderung der Unternehmenskultur. Der hierzu notwendige Change-Prozess muss regelmäßig überprüft, ggf. angepasst und neu justiert werden. Mit dem Culture in Action Index (CIA) kann der Transformationsprozess und -fortschritt gemessen werden. Er ist ein Barometer für den Kulturwandel im Unternehmen. Hierbei werden Mitarbeiter befragt, wie sie selbst, wie Kollegen und wie direkte Führungskräfte andere motivieren bzw. demotivieren, die angestrebte Unternehmenskultur zu leben und sich mit ihr identifizieren. Daher fokussiert sich der Kulturindex auf die Mitarbeiter- und Kollegen-Perspektive und ein Maß dafür, wie sie über die eigene Organisation denken und ob sich Mitarbeiter in Bezug auf ihr Arbeitsumfeld und ihre Aufgaben glücklich, neutral oder traurig fühlen. In der Praxis haben sich 15 Fragen bewährt:
- Haben Sie das Gefühl, dem Management vertrauen zu können? Warum oder warum nicht?
- Haben Sie das Gefühl, dass Sie Möglichkeiten haben, dem Management Feedback zu geben?
- Haben Sie das Gefühl, dass Ihre Meinung wichtig ist?
- Fühlen Sie sich in Ihrem Job oft gestresst oder überfordert?
- Erhalten Sie oft Feedback oder erhoffen sich ein Feedback von Ihrem Vorgesetzten?
- Haben Sie das Gefühl, dass Sie eine gute Zusammenarbeit mit Ihrem Vorgesetzten haben?
- Haben Sie das Gefühl, offen kommunizieren und eine Meinung äußern zu können?
- Was würde Sie an Ihrem Arbeitsplatz glücklicher machen?
- Fühlen Sie sich sicher an Ihrem Arbeitsplatz? Warum oder warum nicht?
- Haben Sie das Gefühl, dass es sich lohnt, alles für Ihren Job zu geben?
- Glauben Sie, dass Sie einen Krankheits- oder Urlaubstag ohne Sorgen hinnehmen können?
- Haben Sie flexible Arbeitszeiten?
- Sind Sie stolz darauf, anderen von Ihrem Arbeitsplatz zu erzählen?
- Würden Sie anderen empfehlen, sich bei Ihrem Arbeitsplatz zu bewerben? Warum oder warum nicht?
- Fühlen Sie sich mit Ihren Kollegen verbunden?
Idealerweise sollten diese Fragen nicht einmalig gestellt werden, sondern in regelmäßigen Abständen (innerhalb von 1 bis 2 Jahren) und die Veränderungen beobachtet werden. Der so genannte Tipping Point ist erreicht, wenn 35% der Mitarbeiter konsistent ein kulturell verändertes Verhalten an den Tag legen.
Culture Map Methode
C wie Culture Map Methode
Die Cultur Map Methode wird im Rahmen von →Change-Prozessen angewendet und ist ein innovativer Ansatz, um →Unternehmenskultur sichtbar und somit erlebbar bzw. greifbar zu machen. Die partizipative Methode basiert auf der Memetik, der Lehre der kulturellen Evolution und kombiniert wissenschaftliche Forschung und innovative Theorien mit praktischen Erkenntnissen aus der Zusammenarbeit mit Unternehmen und Organisationen. Mit einer Culture Map werden Verhaltensweisen in Organisationen sichtbar gemacht und ihre Auswirkungen identifiziert und charakterisiert. Diese liefern die Grundlage für unterschiedliche Unternehmenskulturen. Die Culture Map stellt Kulturmuster anhand von sieben Werteclustern dar, die jeweils durch eine Farbe gekennzeichnet sind. Die Cluster zeigen die typischen Charakteristika einer Unternehmenskultur.
Violette Unternehmenskulturen zeichnen sich durch ein patriarchisches Verhalten aus. Der Unternehmensgründer gibt den Ton an. Treue und Loyalität bis hin zur bedingungslosen Gefolgschaft sind das oberste Gebot. Die Individualität des Einzelnen ist nicht erwünscht, Anpassung und Konformität werden erwartet. Schlüsselpositionen im Unternehmen werden nur an interne und altgediente Mitarbeiter vergeben. Nach außen wird eine hohe Identifizierung mit dem Unternehmen demonstriert. Dies zeigt sich in einer starken Corporate Identity bis hin zu einer einheitlichen Kleidung. In dem meisten Fällen ist das Corporate Design eher konservativ und visualisiert traditionelle Unternehmenswerte. Gleichzeitig gibt es eine klare Abgrenzung nach außen. Ideen und Vorschläge, die nicht von den eigenen Mitarbeitern entstanden sind, werden konsequent und ungeprüft abgelehnt. Violette Unternehmen halten am Status quo fest und sind an Veränderungen nicht interessiert. Das bestehende Geschäftsmodell ist auf langfristiges Wachstum ausgelegt.
Rote Unternehmenskulturen zeichnen sich dagegen durch ein autoritäres, egoistisches und machtgeprägtes Verhalten aus. Im Mittelpunkt steht bedingungsloses Wachstum um jeden Preis. Der Führungsstil im Unternehmen ist geprägt durch Top-down-Entscheidungen bis hin zur Sturheit („mit dem Kopf durch die Wand“). Scheitern und Aufgeben sind keine Option. Klar strukturierte Prozesse mit Regeln und Planungsphasen wird man in Unternehmen mit einer roten Kultur vergeblich suchen. Es gilt das Motto „Learning by doing“ und „Jeder gegen jeden“. Führungskräfte agieren hemdsärmelig und sehr operativ getrieben. Das Motto lautet: „Done is better than perfect.“ Eine besondere Form roter Unternehmenskulturen erkennt man an einem Realitätsverlust. „Ich mache mir die Welt, wie sie mir gefällt“ von Pipi Langstrumpf lässt grüßen.
Blaue Unternehmenskulturen sind sehr rational und monoton geprägt; es gibt klare Hierarchien, jede Menge Regeln, Prozesse und Zuständigkeiten. Die Unternehmen werden sehr bürokratisch geführt. Es gibt eine klare Ordnung und definierte Strukturen und Niemand weicht ohne Grund von diesen Vorgaben ab. Eigeninitiative und Mitdenken sind ausdrücklich nicht erwünscht. Budgets, Ressourcen, Rollen und Zuständigkeiten sowie die dazugehörigen Kompetenzen sind geregelt. Diese Unternehmen sind durch die fünf »S« wie Sichtbare Ordnung, Sortieren, Standardisieren, Sich verbessern und Sauberhalten geprägt. Typische Vertreter dieser Kultur sind Unternehmen mit Massenproduktion und Fließbandarbeit. Entscheidungen von „oben“ werden grundsätzlich nicht hinterfragt. Es herrscht eine eher unterkühlte Atmosphäre; Emotionen haben in roten Unternehmenskulturen nichts zu suchen. Unternehmen mit einer blauen Unternehmenskultur sind auf langfristiges Wachstum ausgelegt und auf Prozesseffizienz.
Orange Unternehmenskulturen findet man vor allem in stark wachsenden und sehr erfolgreichen Unternehmen, nicht selten aus der Tech-Branche. Dem Erfolg wird alles untergeordnet. Der Zweck heiligt die berühmten Mittel. Pragmatismus und schnelle Erfolge stehen im Mittelpunkt. Hierzu werden Regeln, wenn es welche gibt, regelmäßig gedehnt oder großzügig ausgelegt und individuell interpretiert. In orangenen Kulturen herrscht immer eine gewisse Aufbruchstimmung. Es gibt kein Best Practise, diese werden eher selbst definiert. In Unternehmen dieser Kultur wurde das Motto geboren: „Es gibt keine Probleme, sondern nur Herausforderungen“. Individuelle Leistungen stehen im Vordergrund und werden entsprechend belohnt. Das ungeschriebene Leitbild lautet: „Jeder ist seines Glückes Schmied“. Dies bedeutet aber auch, dass unter den Mitarbeitern wie auch den Führungskräften ein permanenter Wettbewerb besteht. In Unternehmen mit einer orangenen Unternehmenskultur bleibt das Privatleben regelmäßig hinter dem Berufsleben zurück. Orangene Kulturen sind geprägt von einer hohen Kreativität und Experimentierfreude. Die Kommunikation verläuft in der Regel unabhängig von Hierarchie und Strukturen. Das Projektmanagement ist von einer hohen Agilität geprägt.
Grüne Unternehmenskulturen sind von einem hohen Verantwortungsbewusstsein geprägt, gegenüber den Menschen im Unternehmen, Kunden, Lieferanten und Geschäftspartnern sowie der Gesellschaft. Der Glaube an das Gute im Menschen und ein harmonisches Miteinander stehen im Mittelpunkt. Führungskräfte haben in der Regel die Funktion eines Coaches oder Mentors. In grünen Unternehmenskulturen gibt es eine hohe Identifikation mit dem Unternehmen, was zu einer hohen Zufriedenheit und geringen Fluktuation der Mitarbeiter führt. Der Führungsstil ist partnerschaftlich und vom Grundsatz „Dialog statt Anweisungen“ und „Betroffene zu Beteiligten machen“ geprägt. Dies kann allerdings auch dazu führen, dass Unternehmen mit einer grünen Kultur gutgläubig agieren oder konfliktscheu sind und somit Kompromisse suchen, die nicht immer erfolgreich sein müssen. Das Geschäftsmodell ist stark auf Nachhaltigkeit ausgelegt. In der Außendarstellung verhalten sich derartige Unternehmen gesellschaftspolitisch korrekt.
Gelbe Unternehmenskulturen haben die Veränderungen als Selbstverständlichkeit in ihrer DNA verankert. In Unternehmen dieser Kultur lautet das Motto: „Heute ist das Gestern von morgen“ – und dies als Querschnittsfunktion in der gesamten Organisation. Die Zukunft ist allgegenwärtig und die Gegenwart nur dazu da, alle Voraussetzungen hierfür zu schaffen. Der Spruch von Heraklit: „Nichts ist so beständig wie der Wandel“ treibt diese Unternehmen an, die sich vor allem im technologischen Wettbewerb behaupten müssen. Das Geschäftsmodell besteht aus Wissen bzw. synonym aus Daten und deren Monetarisierung. Unternehmen mit einer gelben Kultur haben eine hohe Innovationsrate. Eine Mischung aus Neugierde und Risikobereitschaft sowie Logik und Verstand sind die Grundpfeiler in gelben Unternehmenskulturen. Forscher und Entdecker können sich in diesem Umfeld frei entfalten, in dem Freiheit und Kreativität genauso gefördert werden wie Klarheit und Vernunft im Denken. Gelbe Unternehmenskulturen sind technisch, rational und sachlich geprägt, so dass die Emotionen und nicht selten der Faktor Menschlichkeit auf der Strecke bleiben. Außerdem besteht die Gefahr der Verzettelung, wenn ständig neue Ideen mehr honoriert werden als eine erfolgreiche Umsetzung.
Aqua farbene Unternehmenskulturen vereinen alle anderen Kulturfarben und halten diese in der Balance. Unternehmen dieser Kultur haben verstanden und akzeptiert, dass in globalen Ökosystemen eine hohe Komplexität herrscht und Lösungen ganzheitlich und nachhaltig entwickelt werden müssen. Eines der Ziele besteht darin, resilientere Unternehmen zu schaffen, um nahezu jede Krise überstehen zu können. Hierzu nutzen diese Unternehmen die Gegensätzlichkeiten verschiedener Kulturprägungen und integrieren diese zu einer neuen und modernen Unternehmenskultur, in der auf agile Netzwerke und eine starke Selbstorganisation gesetzt wird, anstatt auf klassische Hierarchien und starre Prozessbeschreibungen. Unterschiede der einzelnen Kulturfarben werden nicht als Trennendes verstanden, sondern der Vorteil im Kontext herausgestellt. Die Loyalität gegenüber dem Team und der Erfolg des Projektes steht über der Identifikation mit dem Unternehmen. Unternehmen mit einer Aqua farbenen Kultur geht es vor allem um eine nachhaltige und sinnstiftende Ausrichtung. Das Geschäftsmodell steht im Kontext, welchen gesellschaftlichen Beitrag das Unternehmen leistet. In besonders stark ausgeprägten Aqua farbenen Unternehmenskulturen findet man nicht selten einen Hang zu Altruismus und Spiritualität vor.
Die Cultur Map Methode wird nicht nur zur Bestandsaufnahme angewendet, sondern auch um Rahmenbedingungen und Maßnahmen für eine gewünschte Unternehmenskultur zu definieren sowie den Change-Prozess zu moderieren. Im Ergebnis wird ein Prozess entwickelt, dem →Business Culture Design.
Customer Centricity
C wie Customer Centricity
Der Begriff „Customer Centricity“ ist nicht einfach der englische Begriff für Kundenorientierung oder Kundenzentrierung. Er definiert einen grundlegenden Perspektivwechsel und ist eine von mehreren →Unternehmensstrategien. Aus einem produktorientierten Ansatz (Funktionalität) wird ein kundenorientierter Ansatz (Zufriedenheit). Somit ist eine konsequente Kundenzentrierung auch nicht nur ein Vertriebs- und/oder Marketingkonzept oder ein Service, bei dem sich alles um den Kunden dreht. Customer Centricity ist die Essenz aus Unternehmensstrategie, →Unternehmenskultur und Unternehmensphilosophie und somit die DNA des Unternehmens. Sie wird zur Querschnittsfunktion in allen Unternehmensbereichen, so dass an die Menschen in einer Organisation die Fähigkeit abverlangt wird, eine hohe Kundenempathie aufzubauen. Hierzu dienen u. a. die →Buyer Persona Methode oder die →Culture Map Methode. Seinen Kunden zu kennen bedeutet nicht, möglichst viele Daten von ihm in ein CRM einzupflegen. Seinen Kunden zu verstehen bedeutet, seine Bedarfe und Bedürfnisse, Wünsche und Erwartungen, Verhaltensweisen, Probleme und Herausforderungen zu kennen und ihn zu unterstützen, erfolgreich zu sein. Auf der Grundlage können die Touchpoints systematisiert und die Painpoints entlang der →Customer Journey identifiziert werden. Infolgedessen beginnt beim →Customer Centric Approach die →Wertschöpfungskette beim Kunden. Aus dem produktorientierten Push-Ansatz wird ein kundenorientierter Pull-Ansatz. Die Erfüllung der Kundenerwartungen, -bedürfnisse und -wünsche als Indikator für Kundenzufriedenheit ist die Kernkompetenz im Geschäftsmodell von Unternehmen. Customer Centricity kann auch als →USP definiert werden, wenn die Customer Journey und User Experience einzigartig sind. Die Unternehmensstrategie als Grundlage sowie sämtliche operative Maßnahmen wie z. B. “Loyalty-Programs” als Implementierung sind konsequent auf eine nachhaltige Kundenbeziehung ausgerichtet. Das Geschäftsmodell ist von gegenseitiger Wertschätzung, Verlässlichkeit, Loyalität und Empathie gekennzeichnet.
Eine Geschäftsbeziehung ist keine Einbahnstraße und ein Kunde nicht nur ein Käufer. Zufriedene Kunden werden zu einflussreichen Influencern – auch im B2B-Bereich. Das Kundenfeedback z. B. in Form von Bewertungen in den sozialen Netzwerken triggert ggf. potenzielle Neukunden. Die Meinung und Glaubwürdigkeit von Kunden in Foren und Communities steht über der subjektiven Werbung von Unternehmen. Kunden können somit den Erfolg oder Misserfolg von Produkten oder ganzen Unternehmen (mit) beeinflussen. Diese Entwicklung wird als →Customer Empowerment bezeichnet und wird in den nächsten Jahren an Bedeutung gewinnen. Nicht ohne Grund gehen immer mehr Unternehmen dazu über, Kunden über →Open Innovation in den eigenen Innovationsprozess mit einzubeziehen.
Auswirkungen der Customer Centricity im Online-Marketing und/oder im →E-Commerce zeigen sich z. B. im User Centered Design, einer kundenspezifischen Usability, dem Inbound Marketing sowie einer Multichannel-Kommunikation. Hierbei geht es nicht nur um Leadgenerierung und Neukundengewinnung, sondern um langfristige Kundenbeziehungen. Ein wichtiger Indikator für nachhaltige Kundenzufriedenheit zeigt sich regelmäßig beim Post-Sale. Customer Centricity ist keine Frage der Unternehmensgröße und/oder des Bekanntheitsgrades oder Markenimage.
Customer Lifetime Value (CLV)
C wie Customer Lifetime Value (CLV)
Der Customer Lifetime Value ist eine wichtige Kennzahl der Kundenbindung. Der Begriff setzt sich aus zwei Metriken zusammen: dem aktuellen Kundenwert sowie dem potenziellen Wert, den ein Kunde für ein Unternehmen haben kann. Der CLV beschreibt infolgedessen den Deckungsbetrag, den ein Kunde während der Kundenbeziehung realisiert. Das Ziel einer auf dem Customer Lifetime Value basierenden Vertriebs- und Marketingstrategie ist es, durch eine umfassende Kundenbetreuung nicht nur eine langfristige Kundenbeziehung aufzubauen, sondern eine echte Kundenloyalität zu erzeugen. Bekanntlich ist es günstiger, bestehende Kundenbeziehungen zu halten und auszubauen, als neue zu gewinnen. Durch die Verschiebung des Fokus – weg von der bedingungslosen Neukundenakquise hin zu einer nachhaltigen Customer Experience der Bestandskunden – gewinnen Kundenwertanalysen eine zunehmende Bedeutung für jedes Unternehmen. Im operativen Tagesgeschäft im Vertrieb wird häufig außer Acht gelassen, dass eine Kundenbetreuung rentabel bleiben muss. Gibt ein Unternehmen für einen potenziellen Neukunden oder Bestandskunden mehr aus, als dieser ihm zukünftig einbringen wird, lohnen sich diese Ausgaben nicht. Der Customer Lifetime Value unterstützt bei der Planung des Budgets und der Ressourcen, indem er darstellt, welchen Wert eine Kundenbeziehung für das Unternehmen derzeit hat und in Zukunft haben wird. Je nachdem, welcher Wert ermittelt wird, können die Budgets gezielt erhöht, reduziert oder gleich bleiben. Der CLV zeigt darüber hinaus an, ob die Kundenbindungsstrategie eines Unternehmens erfolgreich und nachhaltig ist.
Der Customer Lifetime Value wird mit verschiedenen Methoden berechnet und baut auf wichtigen Kennzahlen auf wie z. B. dem durchschnittlichen Auftragswert (Umsatz) und/oder durchschnittlichen Deckungsbeitrag. Hinzu kommen die Anzahl der wiederholenden Umsätze pro Jahr. Dem werden die Akquisitionskosten für Neukunden sowie die Betreuungskosten für Bestandskunden gegenüber gestellt. Hierzu gehören direkte und indirekte Kosten wie z. B. Außendienstbetreuung, Rabatte und Aktionen sowie Marketingunterstützung, technischer Support oder Kulanz bei Reklamationen usw. Im dritten Schritt werden die Anzahl der Kunden zu einem bestimmten Endzeitpunkt sowie die Anzahl der Kunden, die in dem Zeitfenster neu dazugewonnen wurden und die Anzahl der Kunden, die zum Beginn des Zeitfensters bereits vorhanden waren, ermittelt. Das Zeitfenster beträgt in der Regel ein Jahr (in der Regel ein Geschäftsjahr).
Customer Profiling
C wie Customer Profiling
Der Begriff Customer Profiling beschreibt die Erstellung, Verwendung und permanente Aktualisierung von Kundenprofilen, die aus generierten Kundendaten (Big Data, Data Lake, Smart Data) stammen. Diese werden identifiziert, analysiert und bewertet (Scoring), um eine optimale Kundenansprache in Vertrieb und Marketing sowie Potenzialausschöpfung (virtuelle Warenkörbe) zu erzielen. Die Grundlage im Customer Profiling bieten sieben Faktoren:
- Statische Faktoren wie z. B. sozioökonomische Faktoren (z. B. Bildung, Einkommen oder sozialer Status) und demografische Faktoren (z. B. Alter oder Geschlecht)
- Dynamische Faktoren wie psychografische Faktoren (z. B. Handlungsmotive oder Life-Style), behavioristische Faktoren (z. B. Handlungsmuster oder Art der Beschaffung von Informationen), geografische Faktoren (z. B. Bewegungsprofile oder Bewegungsradien), kontextuelle Faktoren (z. B. persönliches Umfeld oder Emotionen) und technologische Faktoren (z. B. Technikaffinität oder Techniknutzung).
Cyber-physische Systeme (CPS)
C wie Cyber-physische Systeme (CPS)
Der zentrale Erfolgsfaktor zur Verbindung der digitalen und physischen Welt in der Zukunft der maschinellen Arbeit (Industrie 4.0) liegt in den so genannten cyber-physischen Systemen (CPS). Diese bezeichnen den Verbund von informations- und softwaretechnischen Komponenten mit mechanischen und elektronischen Komponenten, die über eine Dateninfrastruktur (in der Regel dem Internet) kommunizieren. Dabei werden zum einen Daten ausgetauscht und zum anderen Steuerung und Kontrolle über eine Infrastruktur behalten. Das Besondere ist nicht der Datentransfer an sich, sondern die Geschwindigkeit, mit der diese Aktionen erfolgen. CPS werden eingesetzt, um in Echtzeit mobile und bewegliche Einrichtungen, Geräte und Maschinen (darunter auch Roboter), eingebettete Systeme und vernetzte Gegenstände (Internet of Things) zu steuern. Ein cyber-physisches System entsteht aus der Vernetzung eingebetteter Systeme durch drahtgebundene oder drahtlose Kommunikationsnetze und ist durch einen hohen Grad an Komplexität gekennzeichnet. Fast alle kritischen und systemrelevanten Infrastrukturen enthalten cyber-physische Systeme: Stromerzeugung und -verteilung, Trinkwassererzeugung, Lüftungssysteme in Tunneln, U-Bahnen, Zügen und Flugzeugen, militärische Systemvernetzungssysteme sowie Infrastruktursysteme für Kommunikation und Kultur wie z. B. große Veranstaltungsarenen, Verkehrssteuerungs- und Verkehrslogistiksysteme. Hinzu kommen vernetzte Sicherheits- sowie Fahrerassistenzsysteme für Automobile, industrielle Prozesssteuerungs- und Automationssysteme und medizinische Geräte, bei denen eine hohe Zuverlässigkeit verlangt wird. Deshalb sind resiliente Systemarchitekturen notwendig, die trotz unvorhergesehener Auswirkungen von gegenseitigen Abhängigkeiten das gewünschte Systemverhalten sicherstellen.
Cyber-physische Systeme sind extrem anpassungs- und wandlungsfähig und tragen zur Effizienzsteigerung bei. Durch die Vernetzung und die beliebige An- und Einordnung von Daten, Informationen und Diensten können verschiedene Potenziale zukünftig schneller erkannt und effizienter genutzt werden. Ob bei der Datengewinnung und -verarbeitung oder der automatischen Optimierung von Systemen und Personalkapazitäten: Prozesse von cyber-physischen Systemen laufen weitgehend autonom und automatisiert, ohne dass der Mensch eingreifen muss. Diese erfüllen oftmals nur noch Kontroll- und Steuerungsfunktionen. Auch die Arbeitssicherheit, die Geschwindigkeit von Abläufen und die Effizienz von Prozessen lässt sich mit den Cyber-physischen Systemen steigern.
Cynefin-Modell
C wie Cynefin-Modell
Das Cynefin-Modell (oder auch -Framework oder -Matrix) wurde 1999 im Kontext von strategischer Organisationsentwicklung vom ehemaligen IBM-Mitarbeiter und Berater Dave Snowden entwickelt. Das walisische Wort “Cynefin” wird sinngemäß mit „Lebensraum” oder „Platz“ übersetzt, obwohl diese Übersetzung nicht seine volle Bedeutung vermitteln kann. Cynefin steht metaphorisch für die Einsicht, dass jedes Individuum und jedes System das Ergebnis seiner eigenen Entwicklungsgeschichte ist bzw. mehrere Vergangenheiten hat. Snowden wählte diesen Begriff, um die evolutionäre Natur komplexer Systeme zu veranschaulichen, inklusive der ihr innewohnenden Unsicherheit.
Das Cynefin-Modell unterscheidet fünf Domänen und schlägt kontextbezogene Lösungsstrategien vor:
- einfache Systeme (Clear, bisher Simple oder Obvious): geringe Anzahl von Informationen und Variablen, die in einer eindeutigen Ursache-Wirkungs-Beziehung stehen und für alle offensichtlich sind. Dieses System kann durch feste Regeln, Checklisten und klare Prozesse sehr einfach geführt werden (Strategie: S-C-R = Sense, Categorise, Respond). Informationen können zuverlässig weitergegeben werden (best practices).
- komplizierte Systeme (Knowable, Complicated): deutliche höhere Anzahl von Informationen und Variablen, die über eine feste Ordnung und lineare Kausalität immer noch relativ einfach geführt werden können (Strategie: S-A-R = Sense, Analyze, Respond). Die Ursache-Wirkungs-Beziehung ist nicht sofort erkennbar oder eindeutig und kann nur im Nachhinein und nicht selten nur durch eine genaue Analyse bewertet werden, für die eine hohe Expertise notwendig ist. Um komplizierte Systeme führen zu können, braucht man Experten (good practices).
- komplexe Systeme (Complex): große Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und eskalierende oder stabilisierende Rückkopplungen verursachen. Es existieren keine linearen Ursache-Wirkungs-Beziehungen, was die Vorhersage der richtigen Strategie erschwert. Daher empfehlen sich zur Führung komplexer Systeme emergente Strategien (emergent practices) bzw. eine “exaptive discovery”. Durch zeitlich begrenztes Ausprobieren kann man Muster erkennen und die Vorgehensweise situativ anpassen (Strategie: P-S-R = Probe, Sense, Respond).
- chaotische Systeme (Chaotic): durch eine unüberschaubare Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und sich extrem schnell verändern können, regiert das Chaos. Es gibt auf der Systemebene keine Beziehung zwischen Ursache und Wirkung. Die einzige valide Strategie in chaotischen „Systemen“ (besser Umgebungen) ist Neues zu probieren, schnell und entschlossen zu handeln um das System zu stabilisieren (novel practices) und somit in komplexe Systeme zu überführen (Strategie: A-S-R: Act, Sense, Respond).
- gestörte Systeme (Disorder): beschreiben den Zustand des Nicht-Wissens, welche Art von Kausalität besteht. Diese Systeme stehen im Zentrum der Cynefin-Matrix und liegen vor, wenn über den Zustand des Systems (einfach, kompliziert, komplex, chaotisch) keine Einigkeit unter den Entscheidern besteht und demzufolge unklar ist, welche Strategie angemessen ist. In der Regel passen die angewendeten Strategien nicht auf das vorhandene Umfeld. Nicht selten führt dies dazu, dass die Beteiligten sich in ihre eigene Komfortzone zurückziehen.
Die Arbeit von Snowden und seinem Team begann zunächst in den Bereichen Wissensmanagement, kultureller Wandel und Gruppendynamik. Sie befassten sich später auch mit einigen kritischen Unternehmensprozessen, wie z. B. Produktentwicklung, Markterschließung und Branding. In jüngerer Zeit umfasste ihre Tätigkeit auch Fragen der Unternehmensstrategie und der nationalen Sicherheit.
Während einfache und komplizierte Systeme durch Ordnung und lineare Kausalität gekennzeichnet sind, fehlt es dagegen in komplexen und chaotischen Systemen an einer grundlegenden Ordnung. Das daraus entwickelte Framework stützt sich auf Forschungen aus der Theorie komplexer adaptiver Systeme, der Kognitionswissenschaft und Anthropologie sowie evolutionären Psychologie und bedient sich hierbei narrativer Muster. Das Modell untersucht die Beziehung zwischen Mensch, Erfahrung und Kontext und eröffnet neue Wege für Kommunikation, Entscheidungsfindung, Richtlinienkompetenz und Konfliktmanagement in einem komplexen sozialen Umfeld. Infolgedessen muss am Anfang die Frage geklärt werden, in welchem Umfeld sich ein Unternehmen, eine Organisation, ein Team oder auch ein Projekt befindet. Man nennt dies einen “common sense” und beantwortet die Frage, ob ein geordnetes Umfeld (einfach, kompliziert) vorliegt oder ein ungeordnetes (komplex, chaotisch) bzw. im worst case ein System schon unter einer Störung leidet. Erst danach können Strukturen festgelegt, Entscheidungsprozesse definiert, Zusammenarbeit organisiert und Führungsrollen ausgestaltet werden. Die Cynefin-Matrix ist als Plattform geeignet, um Transparenz und ein gemeinsames Verständnis sowie ein geeignetes Vorgehen herzustellen. Gerade in Zeiten dynamischer Veränderungen deckt das Cynefin-Modell auf, warum funktionale, auf starren Regelwerken und Hierarchien basierende Organisationen in komplexen Umgebungen ausgedient haben. Diese Erkenntnis gilt sowohl für allgemeine Prozesse der Unternehmenssteuerung wie Strategieentwicklung, als auch für Organisationsentwicklung oder Projektmanagement. Emergente und adaptive Strategien erfordern kleine und selbstorganisierte Teams, dezentrale Entscheidungen und kurze Iterationszyklen. Das Cynefin-Modell erklärt darüber hinaus die Notwendigkeit einer kontextbezogenen Führung. Der Kontext leitet sich hierbei nicht aus einer konkreten Situation ab, sondern dem allgemeinen Umfeld. Während in herkömmlichen Organisationen weiterhin auf gewohnte “Management Best Practices” wie Lenkungsausschüsse, Arbeitskreise, Jour Fixes usw. gesetzt wird, braucht man in komplexen Umgebungen ein völlig neues Führungsverständnis (Servant Leadership). Dieses Verständnis ist geprägt von der Einsicht “nichts zu wissen”, Kommunikation auf Augenhöhe, aktivem Zuhören und der Bereitschaft, Mitarbeiter darin zu befähigen, mehr Verantwortung zu übernehmen und eigene Entscheidungen zu treffen.
Des Weiteren wird das Cynefin-Modell auch angewendet, um Innovationen erfolgreich zu entwickeln, zu implementieren und zu vermarkten. Längst sind sich Innovationsforscher einig, dass echte Innovationen im Grenzbereich zum Chaos entstehen. Gleiches bestätigen im Übrigen auch die Hirnforscher. Wenn radikale oder disruptive Innovationen mit herkömmlichen Methoden wie Business Cases, Zeit-, Budget- und Projektpläne, Analysen und Risikobewertungen umgesetzt werden sollen, sind sie zum Scheitern verurteilt.
D wie Dark Horse Prototyp
D wie Dark Horse Prototyp
Dark Horse Prototyping beschreibt eine sehr spezielle Methode im →Design Thinking und wird immer dann eingesetzt, wenn besonders verrückte Ideen oder andersartige (disruptive, radikale) Innovationen mit einem höheren Risiko entwickelt werden sollen. Erfahrungsgemäß tendieren Unternehmen eher zu →inkrementellen Innovationen, die sich naturgemäß vom Status quo wenig unterscheiden und sich an den bestehenden Lösungen orientieren. Dagegen schaffen polarisierende Ansätze meist die Potentiale mit dem größten Impact. Dark Horse Prototypen sind aufgrund ihres ergebnisoffenen Charakters besonders in der divergierenden Phase der Entwicklung und Prototypisierung von Ideen anzusetzen. Die Methode empfiehlt sich, wenn Situationen grundlegend hinterfragt werden sollen und selbst gesetzte Grenzen und gewohnte Praktiken überwunden werden sollen. Hierzu ist wichtig, dass im Team ohne Denkverbote und limitierende Faktoren die interessantesten, herausforderndsten und aufregendsten Ideen ausgewählt werden. Die Herausforderung besteht darin, auch unvorstellbare Visionen zuzulassen. Anschließend wird ein Prototyp erstellt und die Stärken, Schwächen und Potentiale im Team analysiert.
Der Begriff Dark Horse ist an den Pferderennsport angelehnt, bei dem das „Schwarze Pferd“ die niedrigsten Aussichten auf den Sieg hat und somit gleichzeitig den größten Gewinn erzielen würde.
D wie DARPA
DARPA ist das Akronym für Defense Advanced Research Projects Agency. Diese Forschungs- und Entwicklungsbehörde des US-Verteidigungsministeriums ist für die Entwicklung neuer Technologien verantwortlich und geht auf die ursprüngliche ARPA (Advanced Research Projects Agency) zurück, die im Februar 1958 von Präsident Dwight D. Eisenhower als Reaktion auf den sowjetischen Start von Sputnik 1 im Jahr zuvor gegründet wurde. Durch die Zusammenarbeit von Wissenschaft und Forschung, Industrie und ausgewählten Schlüsselpartnern definiert, formuliert und koordiniert DARPA verschiedene Forschungs- und Entwicklungsprojekte, um bahnbrechende Technologien zu entwickeln und die Grenzen von Technologie und Wissenschaft zu erweitern. Auch das →ARPA-Net, aus dem sich später das Internet entwickelte, war in dieser Forschungs- und Entwicklungsbehörde angesiedelt und zu Beginn als militärisches Projekt angelegt. Die DARPA hat zudem wesentlichen Anteil an der Entwicklung von Personal Computer, GPS, Wettersatelliten, Stealth-Technologie, Drohnen, Sprachschnittstellen u. a.
D wie Data Lake
Der Begriff Data Lake beschreibt die Speicherung von Daten in ihrem Rohformat. Diese Rohdaten werden erst in ein anderes Format umgewandelt, wenn sie verwendet werden. Dies nennt man auch Schema-on-Read und ist ein kostengünstiges, schnelles Verfahren. Für entsprechende Analysen im Big Data ist dies ein guter Ausgangspunkt, da diese Plattform auch als Data-Management genutzt werden kann.
D wie Data Mining
Unter Data Mining versteht man die systematische Anwendung von computergestützten Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Daten, um in vorhandenen Datenbeständen Muster, Trends und/oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren u. a. auf statistischen Methoden. Diese kommen bei der Potenzialanalyse zum Einsatz, um z. B. typische Warenkörbe zu analysieren (z. B. welche Produkte werden häufig zusammen gekauft oder in welchem Zusammenhang oder welche Faktoren sind ausschlaggebend für Kunden- und Markenloyalität). Weitere Anwendungen sind z. B. Charakterisierungsaussagen wie z. B. der Bestimmung von Erfolgsdeterminanten eines Web-Auftritts. Data Mining kommt zunehmend zum Einsatz, da Unternehmen erkennen, dass die gesammelten und verfügbaren Daten z. B. über das ERP- und/oder CRM-System für strategische Entscheidungen sowie im operativen Management eher ungeeignet sind und effiziente Analyseinstrumente fehlen, um aus den Datenmengen die relevanten Informationen für Entscheidungsträger zu extrahieren. Die Verwendung von statistischer Signifikanz reicht hierzu nicht aus. Beim Data Mining kommen integrierte Methoden und Verfahren der Künstlichen Intelligenz und der Statistik sowie Modelle des Anwendungsbereiches zum Einsatz. Im Gegensatz zu den klassischen Methoden reduziert sich Data Mining nicht nur auf die Prüfung manuell aufgestellter Hypothesen, sondern erweitert den Ansatz durch Generierung neuer Hypothesen.
Data Mining setzt sich zusammen aus den Komponenten Datenzugriff, dem Modelltyp, dem Interessantheitsmaß und dem Suchverfahren. Der Prozess ist Teil des so genannten Knowledge Discovery in Databases (KDD). Häufig werden die Begriffe →Big Data und Data Mining im gleichen Kontext verwendet, was nicht korrekt ist. Big Data befasst sich mit besonders großen Datenmengen, die mit herkömmlichen Methoden und Tools nicht effizient verarbeitet werden können. Data Mining kommt zwar auch bei großen Datenmengen zum Einsatz, ist aber nicht auf Big Data beschränkt. Denn Data Mining erweitert den eigentlichen Vorgang um die Analyse von Daten in Bezug auf relevante Zusammenhänge und Erkenntnisse. Während Big Data große Datenmengen liefert und die geeignete technische Plattform für eine effiziente Verarbeitung zur Verfügung stellt, konzentriert sich Data Mining auf den eigentlichen Vorgang der Gewinnung von Erkenntnissen aus den vorliegenden Daten.
D wie DBaaS (Database as a Service)
DBaaS steht für Database as a Service und bezeichnet einen Service, bei dem Unternehmen ihre Datenbanken oder -systeme nicht mehr über die eigene Infrastruktur betreiben und durch eigene Mitarbeiter betreuen, sondern diese über eine Cloud eines Dienstleisters bereitgestellt bekommen. Dies spart personelle und technische Kapazitäten und somit Kosten. Außerdem können Unternehmen auf das Know-how und die Erfahrung des Anbieters zurückgreifen. Eine gesicherte Netzwerkverbindung sorgt dafür, dass alle Mitarbeiter und Programme jederzeit Zugang zu allen relevanten Informationen haben. Die Abrechnung erfolgt in Form eines nutzungsbezogenen Tarifs.
Database as a Service ist artverwandt mit →Platform as a Service oder →Infrastructure as a Service.
D wie De Bono
→6 Hüte Methode
D wie Deep Tech
Der Begriff Deep Tech taucht vor allem im Umfeld von Startups und Innovationen auf und bezeichnet innovative Technologien in vielen Bereichen. „Tech“ steht eindeutig für „Technologie“, während „Deep“ eine multidimensionale Bedeutung hat. Im Gegensatz zu anderen Technologieunternehmen, die auf bestehende Software zurückgreifen oder diese modifizieren und bei denen Technologie nur Mittel zum Zweck ist und nicht den Kern des eigentlichen Geschäftsmodells darstellt, steht die Technologie bei Deep Tech-Startups dagegen im Mittelpunkt. Des Weiteren ist typisch, dass deren Lösungen in der Regel für den B2B-Bereich entwickelt werden und einen hohen Innovationsgrad aufweisen. In einigen Fällen wird der Begriff Deep Tech auch synonym für Denkfabriken und/oder bahnbrechende wissenschaftliche oder technische Erkenntnisse verstanden. Unternehmen, die in diesem Bereich entwickeln oder ein Geschäftsmodell aufbauen, stehen häufig an der Schwelle zu bedeutenden Durchbrüchen, die auf Jahre den Markt beeinflussen oder auf Jahrzehnte verändern können. „Deep“ steht hierbei synonym für das Potenzial an Möglichkeiten, weshalb Deep Tech-Startups häufig in Verbindung mit künstlicher Intelligenz (KI) und maschinellem Lernen („Deep Learning“) erwähnt werden.
D wie Deep Work
→ Time Boxing
D wie Deep Work Hypothese
Deep Work ist grundsätzlich keine neue Arbeitsmethode. Die Deep Work Hypothese dagegen wurde von Professor Cal Newport entwickelt und beschreibt eine hoch konzentrierte Arbeit für etwa vier Stunden, bei der man sich ohne Ablenkung oder Unterbrechung auf kognitiv anspruchsvolle Aufgaben konzentriert und somit wertvolle Ergebnisse in kürzerer Zeit erzielt. Die höchste Stufe wird erreicht, wenn die Ergebnisse schwer zu kopieren sind und einen unersetzlichen Mehrwert bieten. Newport ist überzeugt, dass dadurch die Sinnhaftigkeit der eigenen Arbeit auf einen hohen Level gehoben werden kann.
Das Gegenteil wird als Shallow Work bezeichnet: anspruchslose Arbeit, die keine speziellen Fähigkeiten oder Konzentration verlangt, sondern oberflächlich ist. Hierzu gehören unproduktive Meetings, der erfolglose Rückruf von Telefonaten, das Verfassen von operativen E-Mails, das Erstellen von Reporting oder Präsentationen, das Folgen von Social-Media-Kanälen und dgl. Der „Klassiker“ für unproduktive Arbeit ist das permanente Checken, Lesen und Beantworten von E-Mails. Lt. einer Studie der Harvard Business School-Professorin Leslie Perlow verbringen ca. 80% der Berufstätigen mehr als zwanzig Stunden pro Woche nur damit, ihren E-Mail-Account zu überwachen und zu reagieren. Oberflächliche oder anspruchslose Arbeit kann in Ausnahmen sogar hilfreich sein, wenn sie z. B. die Möglichkeit zur Entspannung oder Entschleunigung bietet. Wichtig ist nur, dass diese meist routinemäßigen Aufgaben keine höhere Bedeutung bekommen als die wichtigen Aufgaben mit Gestaltungs- und Entscheidungscharakter.
Professor Carl Newport ist überzeugt, dass in einer zunehmend wettbewerbsorientierten Arbeitswelt die High Performer über zwei grundlegende Fähigkeiten verfügen: sie können sich komplexe Themen und schwierige Dinge schnell aneignen, um spezifische Fähigkeiten und bestimmte Fertigkeiten zu beherrschen und auszuführen. Außerdem können sie qualitativ hochwertige Ergebnisse erzielen und einen intellektuellen Mehrwert schaffen. Die Deep Work Hypothese basiert auf der Formel für die Produktion von Qualität auf höchstem Niveau: Hochwertige Arbeit = (aufgewendete Zeit) x (Intensität der Konzentration). Um diese zu operationalisieren, schlägt Newport u. a. vor, die Aktivitäten in den sozialen Netzwerken auf max. 15 min. pro Tag in die Randzeiten zu verlagern und seinen Arbeitstag in Blöcke zu strukturieren und im Abgleich mit dem Bio-Rhythmus einzuteilen.
D wie Delphi-Methode
Die Delphi-Methode kommt in der Zukunftsforschung zum Einsatz, auch wenn sie hierfür ursprünglich nicht entwickelt wurde. Die Anlehnung an das Orakel im altgriechischen Delphi ist tatsächlich kein Zufall. Bei der Delphi-Methode werden Interviews nach den Regeln der empirischen Sozialforschung mit mehreren Personen in mehreren Intervallen durchgeführt und ausgewertet. Anschließend werden die Ergebnisse verdichtet und in aufbereiteter Form zur erneuten Bewertung an dieselben Personen oder einen erweiterten Empfängerkreis gesendet. Die zweite Runde dient dazu, die Aussagen zu schärfen, ggf. durch neue Erkenntnisse anzureichern, verschiedene Aussagen zu priorisieren oder bei Widersprüchen abzuwägen und/oder nach zu justieren. In seltenen Fällen werden noch weitere Runden durchgeführt, wenn das Ergebnis der zweiten Welle noch nicht zufriedenstellend hinsichtlich der Forschungsfrage(n) war. Mit der Delphi-Methode bekommt die Meinungsforschung breite und tiefe Einblicke durch mehrere Menschen mit relevantem Fachwissen.
D wie Deming-Zyklus
→PDCA-Zyklus
D wie Demografie
Demografie ist die Mutter aller →Megatrends. Die Veränderungen der globalen Bevölkerungsstruktur wie z. B. das Wachstum, die Verschiebung der Alterspyramide, radikal andere Prioritäten der jüngeren Generation, die Dichte, ethnische Zugehörigkeit, Migrationsdruck sowie unterschiedliches Bildungsniveau und viele andere demografische Aspekte führen zu signifikanten und nachhaltigen Veränderungen in allen Bereichen der Gesellschaft, der Wirtschaft und im Berufsleben.
Nach Prognosen der Vereinten Nationen wird die Weltbevölkerung bis 2030 um mehr als eine Milliarde Menschen wachsen, wobei ein Großteil dieses Wachstums in Schwellenländern stattfinden wird. Bis zum Jahr 2050 werden 80 Prozent der Weltbevölkerung im Alter von unter 60 Jahren in Ländern leben, die aktuell noch als weniger entwickelt gelten. Durch diese so genannten Emerging Markets verschieben sich die wirtschaftlichen Kräfteverhältnisse rund um den Globus. Gleichzeitig werden die Menschen immer älter, so dass sie länger im Ruhestand leben mit erheblichen Konsequenzen für das Gesundheitswesen und der wirtschaftlichen Herausforderung für eine angemessene Versorgung. Konkret bedeutet dieses Wachstum der Weltbevölkerung der über 65-Jährigen von 1,5 auf über 2 Mrd. Menschen, dass gleichzeitig die Zahl der Arbeitnehmer pro Rentner abnimmt (von aktuell 8 auf 4). Nach Analysen des Weltwirtschaftsforums wächst die Lücke in der Altersvorsorge in den acht großen Volkswirtschaften jeden Tag um 28 Mrd. US-Dollar und werden bis zum Jahr 2050 unfassbare 400 Billionen US-Dollar betragen. Dies wäre etwa das Fünffache des aktuellen Umfangs der Weltwirtschaft. Verstärkt wird das Problem der Überalterung dadurch, dass vor allem in den reicheren und gebildeteren Teilen der Gesellschaft immer weniger Kinder geboren werden. Während man noch vor einigen Jahren vor allem die westliche Welt als Hauptproblem der Überalterung ansah, entwickelt sich zunehmend der asiatische Raum als Hotspot. Bereits heute gibt es mehr über 65-Jährige in Asien als Menschen in den USA. Prognosen zufolge wird die Zahl der über 65-Jährigen in Asien bis 2045 sogar größer sein als die Bevölkerung in der Eurozone und Nordamerika zusammen.
Die mittel- bis langfristigen Auswirkungen dieser globalen demografischen Veränderungen werden sich in allen Bereichen bemerkbar machen. Die größten Auswirkungen werden sich in den Gesundheitsausgaben ergeben. Man schätzt, dass die Gesundheitsausgaben in älter werdenden Industrieländern im Jahr 2040 bis 2050 zwischen 5 und 10 Prozent des Bruttoinlandsproduktes liegen werden. Gleichzeitig wird der Markt für medizinische Technologien und Dienstleistungen rasant wachsen. Defizite infolge der demografischen Veränderungen werden Unternehmen zunehmend durch Technologie wie →Automation, →Robotik und →Künstliche Intelligenz kompensieren. Eine besondere Stellung werden sensitive, kollaborierende Roboter, so genannte →Cobots, einnehmen.
D wie Der perfekte Sturm
Bei der Gefahr einer weltweiten Rezession (mindestens müssen Europa, die USA und China betroffen sein) spricht man von „Dem perfekten Sturm“. Die Bezeichnung wurde von dem US-Ökonom Kenneth Rogoff erstmals erwähnt und dient Ökonomen als Vorlage, wenn verschiedene Ereignisse gleichzeitig auftreten und ganze Volkswirtschaften in den Abgrund ziehen können. Die Vorlage liefert der gleichnamige Weltbestseller des Romanautors Sebastian Jungers, der von Star-Regisseur Wolfgang Petersen auf die Kinoleinwand projiziert wurde. „Der perfekte Sturm“ ist die Geschichte eines Fischerboots, das vor der Ostküste der USA in ein Wetterphänomen gerät, das nur alle hundert Jahre vorkommt. Mehrere Naturkatastrophen – jede für sich allein bereits eine zerstörende Naturgewalt – treffen aufeinander und richten großes Unheil an. Der „perfekte Sturm“ aus ökonomischer Sicht hat anders als die Romanvorlage gleich sieben Makrokräfte, die sich seit 2020 mit unterschiedlicher Stärke und Geschwindigkeit entwickeln und miteinander verzahnen. Hierzu gehören:
- Pandemie: Covid-19 hat die heiße Phase des Sturms eingeleitet. Eine Pandemie ähnlicher Tragweite hat die Welt seit der Spanischen Grippe vor mehr als 100 Jahren nicht mehr erlebt. Die Entschleunigung der Weltwirtschaft infolge der Corona-Krise schwächten Wirtschaft und Finanzen. Lockdowns an neuralgischen Punkten des Welthandels werden noch Jahre zu spüren sein, wenn die Pandemie längst verschwunden ist.
- Krieg: Für jüngere Menschen in der Europäischen Union war es unvorstellbar, dass auf ihrem Kontinent ein Krieg stattfinden kann. Dieser reduziert sich nicht mehr nur auf militärische Handlungen, sondern ist zu einem Wirtschaftskrieg mutiert, in dem es vor allem um Energielieferungen in den Westen und Getreidelieferungen in die ganze Welt geht. Deutschland trifft die reduzierten bis ausbleibenden Gaslieferungen besonders hart.
- Inflation: Lt. Statistischem Bundesamts sind die Preise für Waren und Dienstleistungen im Oktober 2022 um ca. 10 Prozent teurer gewesen als im vergleichbaren Vorjahresmonat und damit auf einem Höchststand seit 1950. Preistreiber für Gas, Heizöl und Benzin sowie einige Lebensmittel ist der Krieg in der Ukraine. Unabhängig davon steigen vor allem in den Ballungsgebieten nach wie vor die Mieten. Diese Preiserhöhungen schlagen sich in der Inflationsrate nieder. Hinzu kommt der Zinskurs der Zentralbank (EZB) und Politik der Notenbanken sowie die finanziellen Folgen der Pandemie.
- Zinsen: Als Reaktion auf die Inflation heben die Zentralbanken die Zinsen an. Allerdings zu spät und nicht konsequent, wie führende Ökonomen kritisieren. Entweder heben Zentralbanken die Zinsen zu zögerlich an und somit ohne nennenswerte Effekte oder zu großzügig und riskieren das Abwürgen des Wirtschaftswachstums, weil Kredite für Investitionen zu teuer werden. Die Folge wäre eine Rezession.
- Arbeitsmarkt: Viele Unternehmen befinden sich aktuell in einem Dilemma. Die einen können sich die Energiekosten nicht mehr leisten, den anderen fehlt Material für ihre Produkte. Fehlender Absatz führt zu deutlichen Umsatzrückgängen bei gleichzeitig steigenden Kosten. Die Folge: ein Arbeitskräfteüberschuss bei gleichzeitigem Fachkräftemangel lässt den Arbeitsmarkt kollabieren. Entlassungen und Kurzarbeit treffen Arbeitnehmer, deren Schulden durch die Zinsentwicklung rasant ansteigen. Pandemiebedingt (Lockdowns) trifft dies vor allem den Niedriglohnsektor.
- Materialbeschaffung: Die Pandemie wurde zum Brennglas für die hohe Abhängigkeit von Rohstoffen und Materialien aus Asien. Viele Waren hängen in Containern in irgendwelchen Häfen fest. Pandemiebedingt wurden viele Arbeitskräfte abgebaut, die nun erst wieder langsam aufgebaut werden müssen. Der Krieg in der Ukraine zeigt die hohe Abhängigkeit fossiler Rohstoffe aus Russland und ist Preistreiber für energieintensive Produkte. Dies führt u. a. auch zu Einbrüchen in der Bau- und Immobilienbranche. Materialengpässe, hohe Zinsen und hohe Baukosten stellen für viele Bauherren ein unkalkulierbares Risiko dar.
- Geostrategische Gefahr: Der Krieg in der Ukraine und seine wirtschaftlichen und politischen Folgen verdeutlichen, dass ein totalitäres Regime zu einem unberechenbaren Risiko werden kann. Neben Russland wird auch China zu einem unkalkulierbarem Partner. Beide Supermächte streben nach einer neuen Weltordnung, was die USA auf den Plan ruft und eigene Interessen hervorruft. Europa und Deutschland mit seinen Abhängigkeiten von diesen Supermächten hat aktuell wenig entgegen zu setzen. Die unterschiedlichen Interessen innerhalb der EU machen einen Gegenpol nicht einfacher.
Wie in der Romanvorlage „Der perfekte Sturm“ treffen auch wirtschaftspolitisch seltene Faktoren und Ereignisse aufeinander und haben eine Situation geschaffen, die kaum hätte schlimmer werden können und die es so noch nicht gegeben hat. Die sieben Makrokräfte und ihre Auswirkungen auf die globale Wirtschaft sind beispiellos und treten in einer Zeit auf, die ohnehin schon durch Disruption und Ungewissheit geprägt war.
D wie Design Thinking
Design Thinking ist ein markt- und kundenzentrierter sowie iterativer Ansatz für die Lösung von komplexen Problemen und zur Entwicklung neuer Ideen. Im Gegensatz zu anderen Innovationsmethoden wird Design Thinking nicht als Methode oder Prozess, sondern als Ansatz beschrieben, der auf den Grundprinzipien Team, Raum und Prozess sowie der Abwägung von Nutzen und Wirtschaftlichkeit, technologische Umsetzbarkeit und Marktrelevanz beruht. Die Namensgebung wird auf die Arbeitsweise von Designern zurückgeführt, die bei ihrer Arbeit einem intuitiven Prozess folgen, der im Kern auf Beobachtung und einer hohen Nutzerzentrierung basiert. Mit seiner offenen, kreativen und gleichzeitig systematischen Herangehensweise bietet Design Thinking ein strukturiertes Vorgehensmodell für unterschiedliche Fragestellungen und Problembereiche. Im Zuge der Digitalisierung bietet Design Thinking eine geeignete Methode, um digitale Produkte, Services und Geschäftsmodelle zu entwickeln.
Im Kern basiert Design Thinking auf der Annahme, dass Probleme besser gelöst werden können, wenn Menschen unterschiedlicher Kompetenzen in einem die Kreativität fördernden Umfeld zusammenarbeiten, gemeinsam eine Fragestellung entwickeln, die Bedürfnisse und Motivationen von Menschen berücksichtigen und dann Konzepte entwickeln, die mehrfach geprüft (Iteration) werden. Design Thinking setzt dabei grundlegend auf Empathie.
Der Design Thinking Prozess ist das Herzstück, der Start und vor allem das Ende sind charakteristisch. Der Start beginnt mit einem “Beginners Mind” und der Haltung, dass man nichts weißt. Das Ende ist erreicht, wenn eine Idee materialisiert und konkret implementiert wurde. Der Verlauf dazwischen ist ein iterativer Prozess, in dessen Zentrum der Nutzer und seine Bedürfnisse stehen. Es existieren verschiedene Modelle des Design-Thinking-Prozesses. Am bekanntesten ist das Modell der sechs Schritte:
- Verstehen: Das Problem wird definiert und ein gemeinsames Verständnis geschafft.
- Beobachten: Die Kundenperspektive wird eingenommen und der Bedarf und die Bedürfnisse ermittelt. Absolute Kundenorientierung steht im Vordergrund.
- Standpunkt definieren: Die Ergebnisse der ersten beiden Schritte werden verdichtet und durch Techniken wie Buyer Personas oder Point-of-View validiert.
- Ideen finden: Zu Beginn der Ideenfindung steht ein allgemeines Brainstorming oder andere Kreativitätstechniken. Wichtig ist, dass es in dieser Phase keine Denkverbote gibt und jegliche Ideen ergebnisoffen zusammengetragen werden. Die Ergebnisse werden strukturiert und nach Prioritäten sortiert. Hierbei wird eine erste Gewichtung in Fragen der Effizienz, der Umsetzbarkeit oder der Wirtschaftlichkeit vorgenommen.
- Prototyp: Anschließend wird ein Prototyp erstellt. Hierzu kommen Techniken wie z. B. Wireframes, Post-its, Rollenspiele, Storyboards oder dgl. zum Einsatz. Wichtig ist, dass der Prototyp auf die Bedürfnisse des Kunden ausgerichtet ist und die Lösung seines Problems darstellt.
- Testen: Abschließend müssen die Erkenntnisse und Ergebnisse getestet werden. Funktioniert der Prototyp nicht oder entspricht er nicht den Bedürfnissen der Kunden, kann diese wieder verworfen werden. Dabei spielt Feedback eine wichtige Rolle. Es ist durchaus üblich, dass es bei neuen Produkten mehrere Testphasen gibt, bis das Produkt freigegeben werden kann.
D wie Detraktoren
Der Begriff Detraktoren beschreibt unzufriedene Kunden, die mit großer Wahrscheinlichkeit bei einem bestimmten Unternehmen oder ein bestimmtes Produkt nicht mehr kaufen werden. Diese lassen sich mithilfe von Umfragen für den →Net-Promoter-Score identifizieren. Detraktoren sind deshalb ein Problem für Unternehmen, da sie in der Regel ihre Unzufriedenheit nicht nur für sich behalten, sondern diese auch anderen mitteilen und somit evtl. andere Kunden davon abhalten können, zukünftig mit der Marke zu interagieren. Deshalb wiegt die Kritik von Detraktoren in der Regel schwerer als die Unterstützung von →Promotoren. Detraktoren können aber auch von Nutzen sein, wenn ihr negatives Feedback genutzt wird, um Verbesserungen bzgl. des Produktes, des Services oder des Unternehmens allgemein vorzunehmen. Idealerweise schafft man es, Detraktoren in Promotoren umzuwandeln.
D wie DGNB
Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) definiert in Deutschland die Standards für →nachhaltiges Bauen, auch →Green Building genannt. Ein Team aus Architekten, Bauunternehmern und Wissenschaftlern entwickelt konzeptionelle Ziele und bewertet nachhaltige Gesamtkonzepte anhand ihrer ökologischen, ökonomischen, sozialkulturellen und funktionalen Qualität. Hierbei werden keine Einzelmaßnahmen bewertet, sondern Abhängigkeiten und Wechselwirkungen über kompletten Lebenszyklus. Erreicht ein Neubau- oder Bestandsprojekt die Zielwerte, wird das Gütesiegel „Nachhaltiges Bauen“ verliehen, das die DGNB in den Kategorien Bronze, Silber, Gold und Platin vergibt. Die Nachweisführung für das Bauen im Bestand ist deutlich einfacher, da auf echte Daten zurück gegriffen werden kann, während für Neubauten aufwändige Simulationen durchgeführt werden müssen.
D wie DGSVO (Datenschutz-Grundverordnung)
Die Datenschutz-Grundverordnung (DSGVO) ist eine Verordnung der Europäischen Union, mit der die Regeln zur Verarbeitung personenbezogener Daten europaweit vereinheitlicht und geregelt werden. Sie trat am 25. Mai 2018 unmittelbar in allen EU-Mitgliedsstaaten in Kraft. Das oberste Ziel ist der Schutz personenbezogener Daten innerhalb der Europäischen Union sowie die Gewährleistung des freien Datenverkehrs innerhalb des Europäischen Binnenmarktes. Die DSGVO besteht aus 99 Artikeln in elf Kapiteln:
- Kapitel (Artikel 1 bis 4): Allgemeine Bestimmungen (Gegenstand und Ziele, sachlicher und räumlicher Anwendungsbereich, Begriffsbestimmungen)
- Kapitel (Artikel 5 bis 11): Grundsätze und Rechtmäßigkeit (Grundsätze und Rechtmäßigkeit der Verarbeitung personenbezogener Daten, Bedingungen für die Einwilligung, Verarbeitung besonderer Kategorien personenbezogener Daten)
- Kapitel (Artikel 12 bis 23): Rechte der betroffenen Person (Transparenz und Modalitäten, Informationspflichten des Verantwortlichen und Auskunftsrecht der betroffenen Person zu personenbezogenen Daten, Berichtigung und Löschung – das „Recht auf Vergessenwerden“ – Widerspruchsrecht und automatisierte Entscheidungsfindung im Einzelfall einschließlich Profiling, Beschränkungen)
- Kapitel (Artikel 24 bis 43): Verantwortlicher und Auftragsverarbeiter (Allgemeine Pflichten, Sicherheit personenbezogener Daten, Datenschutz-Folgenabschätzung und vorherige Konsultation, Datenschutzbeauftragter, Verhaltensregeln und Zertifizierung)
- Kapitel (Artikel 44 bis 50): Übermittlungen personenbezogener Daten an Drittländer oder an internationale Organisationen
- Kapitel (Artikel 51 bis 59): Unabhängige Aufsichtsbehörden
- Kapitel (Artikel 60 bis 76): Zusammenarbeit und Kohärenz, Europäischer Datenschutzausschuss
- Kapitel (Artikel 77 bis 84): Rechtsbehelfe, Haftung und Sanktionen
- Kapitel (Artikel 85 bis 91): Vorschriften für besondere Verarbeitungssituationen (u. a. Verarbeitung und Freiheit der Meinungsäußerung und Informationsfreiheit, Datenverarbeitung am Arbeitsplatz, Zugang der Öffentlichkeit zu amtlichen Dokumenten, Verarbeitung zu im öffentlichen Interesse liegenden Archivzwecken, zu wissenschaftlichen oder historischen Forschungszwecken und zu statistischen Zwecken, bestehende Datenschutzvorschriften von Kirchen und religiösen Vereinigungen oder Gemeinschaften)
- Kapitel (Artikel 92 bis 93): Delegierte Rechtsakte und Durchführungsrechtsakte
- Kapitel (Artikel 94 bis 99): Schlussbestimmungen (u. a. Aufhebung der Richtlinie 95/46/EG und Inkrafttreten der DSGVO)
Unter dem Begriff der „personenbezogenen Daten“ werden alle Informationen zusammen gefasst, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann. Übersetzt heißt dies, dass hierzu alle Angaben zu einer Person wie Namen, Geburtstag, Wohnort bzw. Adressen, medizinische Daten, Fotos, E-Mail-Adressen, Bankdaten bis zu Beiträgen in den sozialen Netzwerken oder auch IP-Adressen zählen. Daten, aus denen die ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen, die Gewerkschaftszugehörigkeit sowie genetische Daten, Gesundheitsdaten und Daten oder Angaben zur sexuellen Orientierung einer natürlichen Person hervorgehen, dürfen nicht verarbeitet werden. Hierbei wird zwischen personenbezogenen Daten im privaten, öffentlichen oder arbeitsbezogenen Umfeld einer Person nicht unterschieden – es geht immer um die Person selbst.
Des Weiteren gilt, dass die Verarbeitung personenbezogener Daten nur aufgrund einer aktiven Erlaubniserteilung zulässig ist. Diese sind in Art. 6 aufgeführt, wovon mindestens einer erfüllt sein muss:
- die betroffene Person hat ihre Einwilligung gegeben
- die Verarbeitung ist für die Erfüllung eines Vertrags oder zur Durchführung vorvertraglicher Maßnahmen erforderlich
- die Verarbeitung ist zur Erfüllung einer rechtlichen Verpflichtung erforderlich
- die Verarbeitung ist erforderlich, um lebenswichtige Interessen zu schützen
- die Verarbeitung ist für die Wahrnehmung einer Aufgabe erforderlich, die im öffentlichen Interesse liegt
- die Verarbeitung ist zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich.
Im letzten Fall ist eine Interessensabwägung gegenüber den Interessen der betroffenen Person erforderlich.
Für Unternehmen hat die DSGVO erhebliche Auswirkungen, nicht nur im Marketing und Vertrieb, sondern auch im HR-Bereich. Für die Nichteinhaltung der Grundsätze und Rechenschaftspflicht können Unternehmen mit einem Bußgeld in Höhe von bis zu 20 Millionen EUR oder bis zu 4% seines gesamten weltweit erzielten Jahresumsatzes geahndet werden. Das europäische Datenschutzrecht gilt auch für Unternehmen außerhalb der EU, soweit diese ihre Waren oder Dienstleistungen im europäischen Markt anbieten. Somit greift die DSGVO auch für die US-amerikanischen Internet-Konzerne.
Betroffene Personen müssen darauf vertrauen dürfen, dass Unternehmen bei der technischen Gestaltung („privacy by design“, „data protection by design“) sowie durch datenschutzfreundliche Voreinstellungen („privacy by default“, „data protection by default“) die grundsätzlichen Anforderungen an den geforderten Datenschutz von der ersten Nutzung an sicherstellen.
Eines der zentralen Anliegen der DSGVO ist das Recht auf Vergessenwerden, das in der Überschrift des Art. 17 ausdrücklich so genannt wird. Es umfasst einerseits, dass eine betroffene Person das Recht hat, das Löschen aller sie betreffenden Daten zu fordern, wenn die Gründe für die Datenspeicherung entfallen. Dabei ist zu beachten, dass der Verantwortliche Daten von sich aus löschen muss, wenn die Rechtsgrundlage für die weitere Verarbeitung entfallen ist. Juristen sind weiterhin uneins, ob z. B. gesetzliche Aufbewahrungspflichten für Unternehmen dem entgegenstehen können. Generell kommt von Medienrechtlern grundsätzliche Kritik an der neuen Datenschutz-Grundverordnung. Diese bemängeln, dass die Verordnung viele Themen und Herausforderungen für den Datenschutz in Suchmaschinen, Sozialen Netzwerken, Big Data und Smart Data, Cloud Computing bis hin zur Künstlichen Intelligenz ignoriert, unterschätzt oder als nicht umsetzbar gestaltet. Auch der Deutsche Anwaltverein sieht Änderungsbedarf, da die vom Gesetzgeber geforderten berufsspezifischen Rechte und Pflichten der Rechtsanwälte nur mit den in der DSGVO hinterlegten Öffnungsklauseln möglich ist, um ein Mandat rechtskonform sicherstellen zu können.
Ein bisher wenig beachtetes Problem ergibt sich aus der Datenerhebung vor Inkrafttreten der DSGVO für die langfristige Speicherung und Weiterverarbeitung personenbezogener Daten wie dies insbesondere in den Bereichen Business Intelligence, Data Warehouse und Machine-Learning der Fall ist. Hierzu gehören u. a. die Interaktion mit Kampagnen und Kanälen, Kaufhistorien, Nutzerinteressen, Kundenstatus oder Cross-Device-Informationen. Alle diese Algorithmen benötigen die Speicherung personenbezogener Daten über einen längeren Zeitraum. Viele dieser Daten wurden vor Einführung der DSGVO oftmals ohne aktive und vorherige Einwilligung gespeichert. Ein nachträgliches Löschen würde erhebliche Löcher in die Tracking-Daten reißen, da nur ein kleiner Prozentsatz von Nutzern nachträglich bereit ist, eine aktive Zustimmung zu erteilen.
D wie Digitale Ethik
Der Begriff der digitalen Ethik (digital ethics) wird unterschiedlich eingesetzt und beschäftigt sich mit moralischen Fragen des digitalen Wandels. Grundsätzlich setzt sich die digitale Ethik mit den sittlichen Grenzen auseinander, die sich durch die Digitalisierung neu gebildet haben oder durch diese verschoben wurden. Einerseits liegt der Fokus auf der technologischen Entwicklung und hinterfragt, wie weit technische Möglichkeiten genutzt werden dürfen, wenn sie z. B. Vorteile für die eine Nutzergruppe und gleichzeitig Nachteile oder Schaden für eine andere Nutzergruppe schafft (Technikethik). Auf der anderen Seite setzt sich die digitale Ethik mit den zwischenmenschlichen Beziehungen in einer digitalen Welt auseinander (Medienethik). Dazwischen liegt das weite Feld im Umgang mit Daten und Datenschutz, nachdem Informationen eine immer wichtigere Ressource wird (Medienethik).
Somit deckt die digitale Ethik ein breites Spektrum ab, reflektiert kritisch die Entwicklungen der Digitalisierung und fragt nach sittlich-moralischen Grenzen des Erlaubten oder Vertretbaren. Die Grundphilosophie hinter der digitalen Ethik lautet: Das Verhältnis zwischen Mensch und Maschine sollte in einer zunehmend technologisierten Gesellschaft nicht nur durch das technisch Machbare, sondern auch durch das moralisch Wünschenswerte bestimmt werden. Die Werte einer freiheitlich-demokratischen Gesellschaft reduzieren sich nicht auf die analoge Welt, sondern sind auch in sämtlichen digitalen Formaten anzuwenden. Daher formuliert die digitale Ethik Handlungsanweisungen und Empfehlungen (keine Verbote!), da eine allgemeine Akzeptanz für die Ethik von zentraler Bedeutung ist.
Der Schwerpunkt der digitalen Ethik beschäftigt sich mit der Erhebung und Verwendung von Daten und dies im Zusammenhang mit dem Datenschutz. Somit ist die digitale Ethik die moralische Messlatte für die Datenökonomie. Außerdem liegt ein Schwerpunkt in der Anonymität im Internet und der sich daraus ergebenden Probleme (z. B. anonymes Cybermobbing). Ebenfalls beschäftigt sich die digitale Ethik mit dem Einsatz von künstlicher Intelligenz in besonders sensiblen Bereichen wie z. B. der Medizin oder der Sicherheit z. B. beim Abwägen von Personenschäden beim autonomen Fahren. Außerdem setzt sich die digitale Ethik mit der Herausforderung des digitalen Wohlbefindens auseinander und sucht nach Lösungen, wie trotz oder wegen der demografischen Entwicklung die Digitalkompetenz der Gesellschaft sichergestellt werden kann und ältere und/oder weniger technikaffine Menschen nicht abgehangen werden.
D wie Digitale Innovationen
Nicht jede digitale Entwicklung ist automatisch eine Innovation. Und eine Innovation muss nicht zwangsläufig auf digitaler Basis stattfinden. Da beide Begriffe allerdings häufig synonym verwendet werden, ist bei vielen Menschen genau dieser Eindruck entstanden. Mit Innovation wird vielfach Digitalisierung verstanden und Digitalisierung übersetzen viele Menschen mit Transformation als höchste Stufe oder Disruption als radikalste Form von Veränderungen. Digitalisierung hat den Innovationsbegriff komplett verändert und radikal erweitert. Deshalb ist wichtig, digitale Lösungen als operative Unterstützung von digitalen Innovationen zu differenzieren und je nach Anwendung zu kategorisieren. So unterscheiden sich z. B. hybride Lösungen, bei denen analoge Prozesse digitalisiert werden von digitalen Prozessen in Organisationen. Davon unterscheiden sich digitale Tools zur Unterstützung analoger oder integriert in digitale Prozesse vom digitalen Servicedesign oder der digitalen Supply Chain. Digitale Geschäftsmodelle und -prozesse sind nicht gleichzusetzen mit digitalen Tools zur Beratung und Bestellung oder digitalen (agilen, iterativen) Arbeitsmethoden wie z. B. Srum, Kanban, Sprints und dgl. Auch digitales Projektmanagement wie das Monitoring des gesamten Innovationsprozesses inkl. Ressourcenmanagement, Risikomanagement, Trendscouting usw. stellt eine eigene Disziplin dar und darf mit den vorhergenannten Begriffen nicht verwechselt oder synonym gleichgesetzt werden.
Digitale Innovationen werden in verschiedene Bereiche unterschieden wie
- Geschäftsbeziehung (Kunden-, Lieferanten- und Partnerbeziehung),
- Leistungsebene (Produktangebot, Services und Dienstleistungen) und
- Organisation (Prozesse, Strukturen, Datenmanagement und Monitoring, Kultur und Führung).
In der Operationalisierung von digitalen Innovationen hat sich bewährt, in Anlehnung an das klassische Canvas-Modell das „Digital Innovation Model“ anzuwenden.
Digitale Lösungen zur operativen Unterstützung von analogen und/oder digitalen Geschäftsprozessen, digitale Innovationen im Servicedesign und/oder digitale Geschäftsmodellinnovationen werden wesentlich durch die Treiber der Digitalen Transformation beeinflusst. Entscheidend ist, ob Innovationen eher markt- oder technologiegetrieben sind. Oder anders ausgedrückt: muss die Technologie entwickelt werden, um eine Idee umsetzen zu können oder bereitet die Technologie den Boden, um neue Ideen entwickeln zu können.
D wie Digitalen Vertrieb
→Vertrieb der Zukunft
D wie Digitaler Geruch / digitaler Geschmack
Die Wissenschaft und Forschung arbeitet seit einiger Zeit daran, den Geruch und den Geschmack zu digitalisieren. Das Potenzial und die Möglichkeiten für eCommerce und andere Anwendungen wären gigantisch. Beide Projekte sind sehr anspruchsvoll, da geruchs- und/oder geschmacksintensive Stoffe nicht selten über hunderte verschiedene Komponenten verfügen. Hierbei geht es nicht um ein Parfüm oder eine asiatische Suppe, an die man spontan denkt. Selbst vermeintlich „einfache“ Lebensmittel wie z. B. Kaffee können bis zu 200 Duftkomponenten enthalten. Das menschliche Gehirn wertet die Informationen über Geschmack und Geruch gleichzeitig aus, da der Mensch nur so z. B. die Feinheiten eines Gerichtes schmecken und riechen kann. In dem Forschungsprojekt werden die verschiedenen Bestandteile, die den Geruch oder Geschmack verursachen, zerlegt und die Elemente der Komponenten anschließend entschlüsselt. Hierbei spielen nicht nur Art und Menge der Komponenten eine große Rolle, sondern auch deren Konzentration. Mit Hilfe leistungsstarker Computer und spezieller Software können die Geruchs- und Geschmacksinformationen in einen digitalen Code oder Schlüssel transferiert werden. Damit der Mensch diesen digitalisierten Duft oder Geschmack wieder aufnehmen kann, wird ein Duft- oder Geschmacksproduzent benötigt, der echte Materie produziert. An diesem Punkt hängen aktuell die Entwicklungen, da die Wissenschaft und Forschung trotz anfänglicher Erfolge noch keine reproduzierbare Lösung gefunden hat. Generell lässt sich festhalten, dass die Entwicklung beim Geschmack und bei den Düften noch in den Kinderfüßen steckt und auch erst knapp 30 Basisdüfte entschlüsselt wurden, während die menschliche Nase über 350 Arten von Geruchsrezeptoren besitzt.
D wie Digitaler Reifegrad
Mit dem digitalen Reifegrad wird der aktuelle Stand eines Unternehmens auf dem Weg zur digitalen Transformation bezeichnet. Dieser wird häufig in Form eines Faktors ausgewiesen. Der digitale Reifegrad ist nicht nur für Unternehmen wichtig, um den Status quo zu dokumentieren, sondern auch um konkrete Handlungsoptionen aufzuzeigen. Je höher der Reifegrad ausgewiesen wird, desto weiter hat ein Unternehmen z. B. seine digitalen Prozesse automatisiert oder sein Geschäftsmodell digitalisiert oder auch die Unternehmenskultur transformiert. Der digitale Reifegrad ist somit ein Instrument zur systematischen Überprüfung und Bewertung sowie kontinuierlichen Weiterentwicklung von Technologie und Ökosystemen, Fähigkeiten und Kompetenzen, Prozessen und Strukturen sowie Rahmenbedingungen für Organisationen. Dabei betrachtet der Digitale Reifegrad unterschiedliche Dimensionen. Hierzu gehören
- Strategie wie z. B. Aspekte der Unternehmensführung, strategische Digitalisierungsziele, digitale Geschäftsmodellentwicklung oder -innovationen sowie Investitionen in Digitalisierungstechnologien
- Technologie wie z. B. IT-Infrastruktur und Ökosystem, Big Data und Datenmanagement
- Produkt und Dienstleistungen wie z. B. Produktentwicklung sowie smarte Produkte und intelligente Services
- Organisation und Prozesse wie z. B. Standardisierungsgrad, Agilität von Prozessen sowie Innovationsmanagement
- Mitarbeiter wie z. B. Aufgaben und Zuständigkeiten, Qualifikation und Kompetenzen wie z. B. der Methodenkoffer, Motivation und Führung sowie Unternehmenskultur als Rahmen für den Change-Prozess.
Es gibt eine ganze Reihe von Tests, mit denen der digitale Reifegrad von Unternehmen gemessen werden kann wie z. B. der →Readiness-Check. Alternativ werden immer öfter Ansätze aus dem Gamification genutzt wie z. B. Serious Games.
D wie Digitaler Zwilling
Der Begriff digitaler Zwilling wird synonym und „unscharf“ für verschiedene Funktionen verwendet. Zum einen steht der Begriff für virtuelle oder digitale Assistenten. Auch für eine digitale Kopie oder Dublette einer analogen Vorlage wird der Begriff verwendet. Hierbei kann es sich um ein computergestütztes Modell eines materiellen oder immateriellen Objektes handeln wie z. B. ein Produkt, Service oder Geschäftsmodell. Man spricht dann auch von virtuellen oder digitalen Zwillingen im „realen Raum“. Alternativ wird der Begriff auch für die digitale Repräsentanz materieller oder immaterieller Objekte in einem digitalen Geschäftsmodell verwendet. Dann werden virtuelle oder digitale Zwillinge im „virtuellen Raum“ beschrieben. Werden beide Optionen miteinander verbunden, spricht man auch vom „digitalen Avatar“. In dem Fall ist ein digitaler Zwilling ein virtuelles Modell z. B. eines Prozesses, eines Produktes oder einer Dienstleistung, mit der die reale und virtuelle Welt miteinander verbunden werden. Je nach Anwendung verwenden diese digitalen Zwillinge reale Daten von z. B. installierten Sensoren, mit denen z. B. Arbeitsbedingungen repräsentiert werden. Diese Kopplung der virtuellen und realen Welt ermöglicht die Analyse von Daten und die Überwachung von Systemen, um z. B. Probleme rechtzeitig zu erkennen, zu verstehen und zu reagieren, bevor diese überhaupt auftreten. Somit können Ausfallzeiten vermieden und/oder Prozesse on Demand optimiert werden.
D wie Digitales Befähigungsmodell
Die digitale Transformation von Unternehmen ist weder ein Projekt noch ein digitaler Prozess. Der Erfolg wird maßgeblich davon abhängen, ob und wie sich Unternehmen mit ihren Organisationen und Strukturen flexibel und dynamisch an die sich kontinuierlich verändernde Umgebung anpassen können – und dies in allen Unternehmensbereichen. Hilfestellung bietet das digitale Befähigungsmodell, mit dem im ersten Schritt der digitale Reifegrad von Unternehmen bestimmt wird. Dieser analysiert den individuellen Ausgangspunkt, um passgenaue Zielstellungen und zielgerichtete Maßnahmen für eine erfolgreiche Transformation zu entwickeln. Das digitale Befähigungsmodell von e-nnovalytics® umfasst sechs Bereiche:
- Ziele und Strategie
- Kultur und Werte
- Führung und Zusammenarbeit
- Organisation, Struktur und Zuständigkeiten
- Daten, Prozesse und Abläufe
- Technologie, Know-how und Kompetenzen
Die Reihenfolge der sechs Bereiche richtet sich nach dem strategisch konzeptionellen Grad und wird mit jedem weiteren Bereich operativer. Ein entsprechendes Framework unterstützt die konkrete Umsetzung und hilft dabei, ein gemeinsames Verständnis über Digitalisierung, Innovation, Transformation und Agilität zu entwickeln. Es unterstützt bei der Entwicklung einer Innovations- und/oder Digitalisierungsstrategie sowie einer operativen Roadmap. Außerdem gibt es Hilfestellung, wie Unternehmen digitale Fähigkeiten aufbauen und agile Methoden im Alltag einsetzen. Der Aufbau einer innovationsfreundlichen Unternehmenskultur gehört genauso dazu wie Digital Leadership, agile Kollaboration und die Integration und Motivation aller Mitarbeiter. Somit schafft das Befähigungsmodell das Fundament für digitale Innovationen.
Neben dem Framework gibt es auch die Möglichkeit, den digitalen Reifegrad von Unternehmen über Gamification zu ermitteln. Hierzu wurde unter der Marke Innogramm® ein Serious Game entwickelt. Dieses Plan- und Strategiespiel nutzt die gamifizierte Diagnostik, um den Reifegrad von Unternehmen, Geschäftseinheiten, Abteilungen oder einzelner Mitarbeiter zu bestimmen, um anschließend individuelle Lösungen zur Optimierung zu entwickeln.
D wie Digitale Sprachassistenten
Digitale Sprachassistenten werden synonym auch als virtueller Assistent bezeichnet und beschreiben eine Software, die mit Hilfe von Spracheingabe bedient wird. Für die Nutzung der Geräte, Apps oder Anwendungen ist keine Tastatur notwendig. Die Assistenten starten mit Hilfe eines bestimmten Aktivierungswortes, wodurch ein Mikrofon gestartet wird und die Spracheingabe aufnimmt. Diese wird an ein Ökosystem gesendet, das die Spracheingabe mit Hilfe von Algorithmen, Big Data und künstlicher Intelligenz in Echtzeit verarbeitet. Das Ergebnis wird in der Regel ebenfalls in gesprochener Form ausgegeben. Digitale Sprachassistenten verwenden verschiedene Voice-Technologien wie z. B. Speech-to-Text oder Text-to-Speech-Verfahren, Slot Filling sowie Intenterkennung. Optimiert mit künstlicher Intelligenz kann die Spracheingabe schnell und präzise in Textform transkribiert werden und umgekehrt. Mittels Deep Neural Networks können digitale Sprachassistenten die Absicht des Nutzers ermitteln (Intent Recogniton) und durch gezieltes Nachfragen näher konkretisieren oder bei Unklarheiten durch intelligentes Nachfragen spezifizieren.
Alle großen Internetkonzerne haben eine eigene Technologie für digitale Sprachassistenten. Alexa von Amazon, Siri von Apple, Cortana von Microsoft, der Google Assistant oder Bixby von Samsung haben hierbei einen unterschiedlich großen Funktionsumfang. Alle diese Sprachassistenten sind für den B2C-Markt konzipiert und weisen im B2B-Markt einige Defizite auf. Neuentwicklungen wie z. B. Kidou schließen diese Lücke. Diese digitalen Sprachassistenten sind nicht mehr nur auf „Befehle“ programmiert, sondern können auf umgangssprachliche Fragestellungen eingehen. Durch gezieltes Training erkennen diese neuen Sprachassistenten auch Fachbegriffe, Umgangssprache und selbst Dialekt. Eine Anbindung an das unternehmenseigene Ökosystem ermöglicht einen fachspezifischen Dialog.
D wie Digitale Wasserzeichen
Ein digitales Wasserzeichen kann als Code oder Zeichenfolge in einer Bild-, Ton- oder Videodatei, aber auch in Programmen oder anderen digitalen Dokumenten eingebettet werden. Der Begriff wird für zwei unterschiedliche Anwendungen gebraucht.
Zum einen dient er dazu, einen Urheber oder einen berechtigten Benutzer eindeutig zu identifizieren. Digitale Wasserzeichen können sich an zufälligen Stellen des Dokumentes wiederholen. Dies soll sowohl die Erkennung, als auch das Entfernen erschweren. Mit diesem digitalen Wasserzeichen sollen also vorwiegend urheberrechtlich geschützte Werke der entsprechenden Schöpfer von Inhalten, vor einer illegalen Verwendung und Verbreitung geschützt werden. Die Verteilung an sich kann das Wasserzeichen in vielen Fällen nicht verhindern, aber es vereinfacht es für Rechteinhaber eine unrechtmäßige Weitergabe oder Nutzung zu erkennen.
Eine weitere Anwendung besteht in so genannten Smart Labels (elektronische Etiketten), in denen digitale Wasserzeichen eingesetzt werden, um z. B. analoge Verpackungen mit digitalen Services zu verknüpfen. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet. Außerdem kommen RFID- oder NFC-Tags zum Einsatz. Am Point-of-Sales werden darüber hinaus Beacons eingesetzt. Codes beinhalten Pull-Informationen, so dass Inhalte aktiv über Smartphones abgerufen werden müssen. Tags dagegen basieren auf Push-Informationen, so dass Inhalte direkt auf das Smartphone geschickt werden können (DSGVO-konforme Zustimmung vorausgesetzt). Auf dieser Grundlage können intelligente Verpackungen entwickelt werden. Bei der intelligenten Verpackung werden z. B. dynamische Icons bzw. interaktive Piktogramme eingesetzt, die mehrsprachig sind und regionalisiert und personalisiert werden können. Smart Labels werden das Supply-Chain-Management, den Produktlebenszyklus sowie das Customer-Relationship-Management nachhaltig verändern. Aktuelle Anwendungen sind z. B. Herstell-/Abfülldatum bzw. Haltbarkeitsdaten, smarte Einkaufswagen, Gepäckabfertigung, Müllabfuhr, Eintrittskarten u.v.m.
D wie Digital Game-based Learning
Der Begriff Digital Game-based Learning beschreibt die Verschmelzung (Synthese) von spielerischer Wissensvermittlung mit Hilfe von Computer- und Videospielen. Hierbei werden verschiedene positive Effekte von digitalen Spielen genutzt, die herkömmliche Lernmethoden nicht bieten können. Hierzu gehört zum einen, dass normaler Leistungsdruck in digitalen Spielen in positive Motivation und somit lernfördernde Effekte umgewandelt wird. Hinzu kommen Ablenkung durch Spielspaß und eine höhere Identifizierung mit einer Zielsetzung. Das Lern- und Motivationspotential von digitalen Spielen führt häufig dazu, dass der Nutzer länger und intensiver lernt als bei herkömmlichen Methoden. Je besser die Interaktion mit dem Nutzer ist (Wechsel von Aktion und Reaktion), umso intensiver ist das Lernergebnis. Spiele sollten den Bedürfnissen der Spieler angepasst werden, die dann nicht nur konsumieren, sondern eigene Geschichten kreieren. Ein großer Vorteil digitaler Lernspiele ist, dass Fehler und Versagen nicht so stark geahndet werden wie im realen Leben. Außerdem sind digitale Spielwelten gut strukturiert und Informationen und/oder Interaktionen werden dann aufgerufen, wenn sie gebraucht werden. Wörter und Definitionen sind in Kontexte von Bildern, Videos oder Dialogen eingebunden. Digitale Spiele fordern und fördern das systemische und systematische Denken. Der Nutzer lernt, einzelne Handlungen im Kontext der Interaktionen zum Umfeld zu sehen. Und digitale Spiele sind perfekt zur Selbstreflexion. „Smart Tools“ wie Avatare oder Belohnungen im Spiel setzen gezielte Impulse und aktivieren Motivation und Leistungswille. Pädagogisch wertvolle Spiele setzen häufig auf cross-funktionale Teams mit unterschiedlichem Expertenwissen.
Digital Game-based Learning kann als Teilgebiet zum Edutainment sowie zum E-Learning gezählt werden. Edutainment vereint Bildung (Education) und Unterhaltung (Entertainment). Zu diesen gehören neben digitalen Lernspielen auch nicht-digitale Lernspiele und Lernvideos usw. Bei E-Learning hingegen kommen auch digitale Medien ohne Spielanteil zum Einsatz. Abhängig von der vorgesehenen Nutzergruppe unterscheiden sich digitale Lernspiele in Art und Ausrichtung ihrer Elemente. Beim Computer-based Training (CBT), Web-based Training (WBT) sowie virtuellen Lernwelten stehen die Lerninhalte im Vordergrund.
D wie Digital Immigrants
Der Gegenbegriff zu →Digital Natives ist der Digital Immigrants. Er bezeichnet Personen, die erst im Erwachsenenalter mit digitalen Medien und Technologien in Berührung gekommen sind. Zu ihnen zählen Jahrgänge, die bis maximal Mitte der 1970-er Jahre geboren wurden. Hinzu kommt, dass sie die „digitale Sprache“ der jüngeren Generation weder beherrschen noch verstehen. Daher kann man häufig beobachten, dass Digital Immigrants digitale Aufgaben vorzugsweise an andere Personen delegieren.
D wie Digital Native
Der Begriff Digital Native (zu Deutsch: digitaler Ureinwohner) wurde erstmals 2001 erwähnt und steht für Personen, die von Kindheit an in der digitalen Welt aufgewachsen sind und den Umgang mit Informationstechnologien und dem Internet von klein auf gelernt haben. Daher steht der Begriff weniger für eine Altersgruppe, mit der häufig die Digital Natives umschrieben werden, sondern für die Art und Weise ihres Umgangs mit Medien und Technologie. Kulturell steht der Begriff auch für die „digitale Sprache“, mit der diese Generation aufwächst. Zu den Digital Natives gehören die →Generation Y (Me oder Millennials) und →Generation Z. Eine Welt ohne digitale Medien wie Software, Hardware und Computer-Peripherie, Internet und Suchmaschinen, E-Mails und Messenger-Dienste, Social Media und Microblogging, mobile Endgeräte wie Smartphones, Tablets und Wearables kennen sie nicht. Hirnforscher haben nachgewiesen, dass sich durch die permanente Nutzung digitaler Medien ihre Hirnstrukturen verändern. Digital Natives haben das Multitasking perfektioniert, in dem sie digitale Medien parallel anwenden und gleichzeitig verschiedene Interaktionen bearbeiten. Digital Natives bevorzugen deshalb Grafiken und arbeiten am besten vernetzt. Zur vollen Entfaltung kommen sie, wenn sie unmittelbar und häufig belohnt werden (→Gamification). Der Gegensatz zu ihnen ist der →Digital Immigrant.
D wie Digital Vortex
Der Digital Vortex visualisiert die Veränderungen infolge der zunehmenden Digitalisierung und deren Auswirkungen auf verschiedene Branchen. Untersucht werden diese seit 2015 durch das „Global Center for Digital Business Transformation“. Dargestellt werden die Ergebnisse jedes Jahr in einer Studie. Herzstück ist die Darstellung durch einen Strudel (Vortex), der die jeweilige Stärke widerspiegelt, mit der eine Branche unter Druck gerät. Der Strudel hat in den letzten Jahren nicht nur mehr Geschwindigkeit aufgenommen und ist enger geworden, sondern hat auch neue Branchen erfasst, von denen kaum zu erwarten war, dass diese so schnell im Strudel auftauchen.
Auslöser der Studie und der Darstellung des Digital Vortex waren ursprünglich Wahrnehmung, Einstellung und Verhaltensweisen von Führungskräften mit der digitalen Transformation, die nicht selten ignoriert oder unterschätzt wurde. Der Digital Vortex sollte dazu beitragen, auch Branchen zu sensibilisieren, die von der digitalen Entwicklung noch nicht so stark betroffen waren wie andere. Die Ergebnisse liefern weitaus mehr Informationen über Trends und dynamische Entwicklungen, als ursprünglich geplant war. Im Digital Vortex befinden sich von innen nach außen (Rotation) folgende Branchen:
- Medien/Unterhaltung
- Technischer Handel und Dienstleistungen
- Telekommunikation
- Konsumgüter/Handel
- Finanzen/Banken
- Reisen/Tourismus
- Transport/Logistik
- Bildung
- Dienstleistungen
- Gesundheit/Pharmaindustrie
- Produzierendes Gewerbe
- Energie und Dienstleistungen
- Immobilien Makler und Bauindustrie
Der aktuelle Digital Vortex bestätigt, dass alle bisher genannten Branchen näher an das Zentrum des Wirbels gerückt sind – dort, wo Geschwindigkeit und Größe der Veränderung den größten Druck auf alle Unternehmen ausübt. Die Positionen vieler Branchen haben sich drastisch und unvorhersehbar schnell in die Mitte verschoben. Es ist davon auszugehen, dass in den kommenden Jahren alle Branchen in dem Strudel der Digitalisierung auftauchen werden. Betrachtet man die Entwicklung seit 2015 und legt die Strudel übereinander, ist eine eindeutige Dynamik zu erkennen, mit welcher Geschwindigkeit der Druck für einzelne Branchen zunimmt. Die Auswirkungen der Pandemie sind in dem letzten Digital Vortex noch gar nicht berücksichtigt worden. Prognosen gehen davon aus, dass in den nächsten 5 Jahren disruptive Entwicklungen und Auswirkungen der Digitalisierung nahezu alle Branchen erfassen und stark bereinigen wird. Ein Drittel der Unternehmen soll demnach verdrängt oder sogar eliminiert werden.
D wie D.I.N.K.
D.I.N.K. ist ein Akronym für Double Income No Kids (= doppeltes Einkommen, keine Kinder) und beschreibt ein Zielgruppensegment, das in der Regel Paare bezeichnet, die zwischen 25 und 45 Jahre alt sind, noch keine Kinder haben oder kinderlos bleiben wollen. Da beide Paare berufstätig sind, verfügen sie über ein entsprechend hohes (doppeltes) Einkommen und gelten in der Kundensegmentierung als interessante Zielgruppe.
D wie Disruptive Innovationen
Als radikalste Form von Veränderungen gelten disruptive Innovationen. Diese beginnen häufig und meist unscheinbar in einer Nische oder am Rand einer Branche und entwickeln sich nicht selten erst einmal eine Zeitlang unter dem Radar. Grundlage ist entweder eine völlig neue Technologie oder ein völlig neuartiges Geschäftsmodell, mit dem Produkte und/oder Dienstleistungen angeboten werden, die nicht nur neu und einzigartig sind, sondern etablierte Unternehmen und ihre Produkte bis hin zu Geschäftsmodellen oder in Ausnahmen ganze Branchen überflüssig machen. Dies ist der wesentliche Unterschied zu inkrementellen Innovationen, bei denen Bestehendes maßgeblich weiter- oder neu entwickelt werden. Neue Technologien und/oder neuartige Geschäftsmodelle sind allerdings nicht Auslöser oder Ursache für disruptive Innovationen, sondern immer nur die Werkzeuge.
„Disruption geht vom Kunden aus, weil sich deren Bedürfnisse ändern. Der Erfolg digitaler Innovationen und Transformation hängt nicht vom Einsatz neuer Technologien ab. Entscheidend ist, dass wir willens und in der Lage sind, die Welt mit diesen neuen Möglichkeiten neu zu denken.“ (Quelle: Prof. Thales Teixeira, Harvard Business School l Digitale Disruption und Aufmerksamkeits-Ökonomie)
„Disruption entsteht, wenn unversorgte Kundenbedürfnisse angesprochen werden. Startups greifen etablierte Unternehmen niemals in der Breite an, sondern analysieren deren Schwachpunkte innerhalb der Wertschöpfungskette oder an den Markträndern. Neu ist bei vielen disruptiven Innovationen nicht das Produkt, sondern der Denkansatz.“ (Quelle: Clayton M. Christensen („The Innovator’s Dilemma“) gilt als Pionier disruptiver Innovation)
In den meisten Fällen gehen disruptive Innovationen von kleinen Unternehmen als Brancheneinsteiger oder Nischenanbieter aus. Marktführer sind in den seltensten Fällen Treiber dieser Entwicklungen. Anderenfalls müssten diese Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells werden. In traditionellen Organisationen sind disruptive Innovationen kaum möglich, da sich Unternehmen auf ihre Kernkompetenz und mit allen Prozessen auf das Kerngeschäft konzentrieren, Bestandskunden und -umsätze abgesichert und Neukunden eher über traditionelle Verdrängung gewonnen werden, bestehende Planungsvorgaben bonifiziert und somit Neues nicht honoriert wird, das Mindset der Führungskräfte und eine innovationsfreundliche Unternehmenskultur fehlen und den Mitarbeitern die nötigen Freiräume sowie Ressourcen verwehrt werden u.v.m.
Hinzu kommen strukturelle Probleme, da klassische Unternehmen immer noch in Silostrukturen und Matrixorganisationen aufgestellt sind. Und dies, obwohl sich seit Jahren die Erkenntnis durchsetzt, dass diese Organisationsform eher Abgrenzung, Fachbereichsegoismus und Ineffizienz fördern.
D wie disruptive Innovatoren
Disruptive Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist ihre Offenheit für Neues, eine hohe Risikobereitschaft und der Mut zu radikalen Innovationen mit disruptivem Potenzial. Ein weiteres Merkmal ist eine innovationsfreundliche Unternehmenskultur und insbesondere die aktive Einbindung und Motivation der Mitarbeiter. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gesehen und nicht als nicht als Top-Down-Prozess in abgegrenzten Fachbereichen. Knapp ein Fünftel der Unternehmen kann den disruptiven Innovatoren zugeordnet werden. Besonders auffallend ist der Anteil von Startups und junger Unternehmen. Ein Viertel von ihnen wurde erst in den vergangenen zehn Jahren gegründet.
→ innovative Milieus
D wie Diversifikationsstrategie
→Sprinkler-Strategie
D wie DMAIC
Das Akronym DMAIC steht für den Kernprozess der Qualitätsmanagement-Methode →Six Sigma und beschreibt dessen Phasen:
- Define (Definieren): was ist das Problem? In dieser Phase wird der Ist-Zustand dokumentiert, analysiert und definiert, welche Zielgruppe welchen Bedarf hat und wie dieser befriedigt werden soll. Auf dieser Basis werden dann die Leistungsmerkmale des Prozesses sowie Rahmenbedingungen (Umfang, Zeit, Budget etc.) definiert.
- Measure (Messen): wie ist die Performance? Zahlen, Daten und Fakten messen die Ausprägung der Leistungsmerkmale (Prozess-Mapping). Ziel ist die Funktionalität des Prozesses zu erfassen sowie die Meilensteine und Prioritäten zu definieren.
- Analyse (Analysieren): Welche Ursachen hat das Problem? In dieser Phase werden die Ursache-Wirkungs-Beziehungen zwischen In- und Outputs qualitativ und quantitativ dargestellt, um Abweichungen von definierten Leistungszielen zu identifizieren. Bewährte Tools sind u. a. →Ishikawa-Diagramme sowie statistische Methoden.
- Improve (Verbessern): Wie lässt sich das Problem eliminieren? Das Ziel dieser Phase sind Lösungsmöglichkeiten für die in der Analysephase identifizierten Probleme. Hierzu werden Kreativitätstechniken wie z. B. →Brainstorming oder →Brainwriting, →Mindmapping oder →Morphologischer Kasten eingesetzt.
- Control (Steuern): Die letzte Phase dient der Implementierung und Steuerung der erreichten Verbesserungen durch Standardisierung und Dokumentation. Die Überprüfung der Zielerreichung erfolgt durch das Controlling.
DMAIC fasst bekannte Vorgehensweisen und bewährte Methoden zu einem systematischen Ansatz zusammen und verknüpft Werkzeuge über die einzelnen Phasen miteinander, so dass Prozesse und Projekte strukturiert und systematisiert werden.
Die Prozessoptimierung DMAIC wurde im Laufe der Zeit weiter entwickelt und angepasst wie z. B. DMADV (DV = Design – Verify) für neue Produkte und DMAEC (E = Engineering) für neue Prozesse.
D wie Double-Diamond-Modell
Das Double-Diamond-Modell ist Teil des →Design Thinkings. Das Herzstück besteht aus den vier Phasen des Double Diamond: Discover, Define, Develop und Deliver. Das Double-Diamond-Modell wurde 2005 vom British Design Council entwickelt und stellt den Nutzer in den Mittelpunkt des Lösungsprozesses. Umfragen, Interviews, Erfahrungsberichte und Feedbacks sind ein zentraler Bestandteil jeder einzelnen Phase des Modells, um notwendige Anpassungen vorzunehmen. Hierbei geht es vor allem um das Verständnis der individuellen Wünsche, Bedarfe und Bedürfnisse. Die Double-Diamond-Strategie betrachtet Servicedesign aus drei Perspektiven: Kundenrelevanz und -attraktivität, technologische Machbarkeit und Entwicklung sowie Wirtschaftlichkeit und Nachhaltigkeit – die Schnittmenge daraus ist die Innovation. Hierbei spielen agile Methoden wie z. B. iterative Prozesse eine essenzielle Rolle: Zielgruppen beobachten, Problem verstehen, Perspektiven wechseln, Ideen entwickeln, Prototyping, optimieren und finale Lösung finden. Eine Abwandlung des Double-Diamond-Modells oder auch 4 Phasen-Modells stellt das so genannte →Münchberger Modell dar.
D wie 3D Druck
3D-Druck ist ein additives Herstellungsverfahren, bei dem Material Schicht für Schicht aufgetragen wird und somit dreidimensionale Objekte entstehen. Der übergeordnete Gattungsbetriff für diese Verfahren ist generative Fertigung oder Rapid-Technologien. Der schichtweise Aufbau der Materialien erfolgt computergesteuert aus einem oder mehreren flüssigen oder festen Werkstoffen nach vorgegebenen Maßen und Formen. Beim Aufbau finden physikalische oder chemische Härtungs- oder Schmelzprozesse statt. Typische Werkstoffe für den 3D-Druck sind Kunststoffe, Kunstharze, Keramiken und speziell aufbereitete Metalle sowie seit Kurzem Carbon- und Graphitmaterialien. 3D-Drucker werden in der Forschung, im Modellbau und zur Fertigung von Mustern und Prototypen (Rapid Prototyping) eingesetzt. Außerdem kommen sie bei der Herstellung von Werkzeugen (Rapid Tooling) und Fertigteilen (Rapid Manufacturing) zum Einsatz und finden Anwendungen in der Baubranche, der Industrie sowie in der Kunst und Medizin. Beim 3D-Druck-Verfahren erhöht sich die Wirtschaftlichkeit mit steigender Komplexität der Bauteilgeometrie und/oder sinkenden Stückzahlen. 3D-Druck-Verfahren haben gegenüber anderen Fertigungen wie z. B. dem Spritzgussverfahren den Vorteil, dass die aufwändige Herstellung von Formen und der Formenwechsel entfällt. Derzeitige Vorbehalte gegen den 3D-Druck gibt es vor allem aufgrund der Tatsache, dass dieses Verfahren noch nicht genormt ist, Erfahrungen fehlen und von den meisten Genehmigungsgremien nicht als Konstruktionsverfahren anerkannt wird. Eine der Schwierigkeiten besteht in den Berechnungen zur Haltbarkeit und Widerstandsfähigkeit. 3D Druck ist mittlerweile im Mainstream angekommen; Forscher arbeiten bereits am →4D Druck-Verfahren.
D wie 3. Welle
Der Begriff der 3. Welle wird häufig im Zusammenhang mit →Drohnen sowie der Entwicklung der →Drohnenökonomie genannt. Er beschreibt die 3 wellenartigen Entwicklungsschritte. Die 1. Welle begann 2008 und beschreibt die Entwicklung der Technologie. Der Fokus der „Bastlerszene“ lag auf Hightech und bedient seitdem einen kontinuierlichen Markt, der kaum wächst. Die 2. Welle begann 2012 und umfasst die Anwendung des Flugmodells zur Freizeitgestaltung und für Luftsportaktivitäten. Vereinfacht ausgedrückt entdeckte der Privatnutzer die Drohne als Spielzeug. In dieser Phase wurden die ersten Apps für Drohnen entwickelt. Der Markt wuchs deutlich. In der 3. Welle, die 2014 begann, entdeckten Unternehmen die Drohne als Werkzeug und integrieren diese zunehmend in eine eigene cloudbasierte Plattformökonomie. Der Entwicklungsverlauf der 3. Welle ist weit rasanter und umwälzender als die ersten beiden Phasen zusammen. Experten arbeiten bereits an Unterwasserdrohnen, mit denen der Planet dann endgültig erforscht werden kann.
D wie Drohnen
Eine Drohne ist ein unbemanntes Flugobjekt bzw. Luftfahrzeug, das ohne eine an Bord befindliche Besatzung autark durch einen Computer oder vom Boden über eine Fernsteuerung betrieben und navigiert werden kann. Die Luftfahrtbehörden unterscheiden zudem noch Flugmodelle und differenzieren nach deren Einsatzzweck. So gehören Flugmodelle zur Freizeitgestaltung oder für Luftsportaktivitäten, zu denen Quadrocopter gehören, nicht zu den unbemannten Luftfahrzeugen. In den letzten Jahren hat auch die Wirtschaft das Potenzial von Drohnen und deren vielseitige Anwendungsmöglichkeiten erkannt, so dass sich eine stark wachsende →Drohnenökonomie entwickelt hat.
Siehe auch →3. Welle
D wie Drohnenökonomie
Bei →einer Drohne denkt man zunächst an ein fliegendes Spielzeug oder eine fliegende Kamera. Denkt man an einen kommerziellen Einsatz, fallen einem sofort fliegende Paketzustellungen ein. Dabei liegt das wahre Potenzial darin, Daten aus der Luft zu sammeln. Hierfür wurden bisher Flugzeuge oder auch Satelliten eingesetzt. Nachteilig hierbei sind u. a. die Kosten, die Auflösung und zum Teil die Wetteranfälligkeit. Drohnen sind hierfür prädestiniert. Die von ihnen gelieferten Informationen haben eine deutlich höhere Bildauflösung. Außerdem können sie situativ eingesetzt und individuell gesteuert werden. In Sachen Genauigkeit nehmen sie es mittlerweile selbst mit Laserscannern auf. Drohnen beschaffen Informationen in Minuten oder Stunden, wofür der Mensch Tage oder Wochen benötigt inklusive einer aufwändigen Vorbereitungszeit, die bei Drohnen meistens entfallen. Fotografie war die erste Killer-App für Multikopter. Danach folgten Videoüberwachung und Kartierung. Drohnen sind gerade dabei, die „Lücke“ zwischen Flug- oder Satellitenaufnahmen und der Straßenperspektive zu füllen. Sie digitalisieren den Planeten in hoher Auflösung und beinahe in Echtzeit. Die Drohnenwirtschaft gilt als disruptiv, da sie herkömmliche Anwendungen, Methoden und Geschäftsmodelle überflüssig macht und völlig neue Möglichkeiten aufzeigt.
Das kommerzielle Potenzial wird erst sichtbar, nachdem Drohnen mit spezieller Software als integraler Bestandteil von Plattformen ausgestattet wurden. Wie bereits in der App-Ökonomie wird es zukünftig auch Applikationen für Drohnen geben, deren Möglichkeiten heute noch nicht vorstellbar sind. Experten sprechen bereits heute vom „Internet der fliegenden Dinge“. Die rasante Entwicklung der Smartphones machte eine Vielzahl intelligenter Technologien, Sensoren, schnelle Prozessoren, Kameras, Breitbandanbindung bis hin zum GPS für jedermann zugänglich. Die Vielzahl unterschiedlicher und leistungsstarker Chips macht das Smartphone zu einem Supercomputer im Kleinformat. Und die Economies of Scale führte dazu, dass diese Komponenten erschwinglich und für den Massenmarkt tauglich wurden.
D wie DRaaS (Disaster Recovery as a Service)
DRaaS ist ein Spezialfall von Disaster Recovery (deutsch Notfallwiederherstellung). Wie der Zusatz „as a Service“ ausdrückt, wird dieses weiterentwickelte Backup an einen spezialisierten Partner ausgegliedert. Disaster Recovery as a Service (DRaaS) ist ein integraler Bestandteil des Business Continuity Management (BCM) und beschreibt einen Managed IT-Service. Das BCM umfasst Pläne und Vorbereitungen für die Weiterführung der Geschäftsprozesse bei teilweisem oder komplettem Ausfall kritischer Systeme. Aufgabe der Disaster Recovery ist das planmäßige Wiederherstellen des normalen Betriebszustands. Schwerwiegende Störungen der Betriebssysteme können z. B. durch Strom-, Hardware- und Netzwerk-Ausfälle verursacht werden oder durch gezielte Angriffe gegen die IT-Sicherheit. Ursachen können vielschichtig sein, von Naturkatastrophen und Feuer bis zu menschlichen Fehlern, böswilligen Handlungen, Diebstahl von IT-Geräten oder Komponenten bis zu Datenträgern oder auch einer fehlerhaften Hard- oder Software.
Zu den drei hauptsächlichen Komponenten des BCP gehören High availability (HA), mit denen Kapazitäten und Prozesse bereitgestellt werden, welche einem Unternehmen beim Ausfall lokaler Systeme den Zugriff auf Daten und Anwendungen erlauben. Mit Continuous operations (CO) wird die Aufrechterhaltung des Betriebs während auftretender Störungen und geplanter Wartungsarbeiten sichergestellt. Disaster Recovery (DR) ist die Bereitstellung von Methoden, um ein komplettes IT-System beim Ausfall an anderer Stelle wiederaufbauen zu können.
Als Teil der Disaster Recovery-Strategie kommt heutzutage verstärkt die Cloud Disaster Recovery (Cloud-DR) zum Einsatz. Hierbei werden die zur Wiederherstellung betroffener Systeme notwendigen Daten in der Cloud gespeichert, anstatt auf physischen Massenspeichern vor Ort. Als Vorgabe für das Anlegen von Backups gilt seit langem die 3-2-1 Regel. Diese besagt, dass für alle Daten drei Versionen vorgehalten werden: das Original, plus zwei Kopien. Man spricht auch von der doppelten Redundanz. Dabei wird eine Kopie auf einem separaten Datenträger, jedoch in denselben Räumlichkeiten wie das Original aufbewahrt (On-site Backup). Die zweite Kopie wird an physisch entferntem Ort aufbewahrt (Off-site Backup). Bei Disaster Recovery as a Service steht die kontinuierliche Replikation der Geschäftsdaten und -systeme im Fokus. Dies geht über ein einfaches Daten-Backup hinaus und spiegelt komplette Ökosysteme. Dieses schließt sämtliche kritische Infrastruktur, Systeme, virtuelle Maschinen und Anwendungscontainer sowie Daten ein. In der Praxis haben sich zwei DRaaS-Ansätze bewährt: Das „Recovery Time Objective“ (RTO) und „Recovery Point Objective“ (RPO). Neben der Wiederherstellung betroffener Daten und Systeme enthalten professionelle DRaaS-Angebote häufig eine weitere essenzielle Funktion zur Aufrechterhaltung der Geschäftsprozesse: Mit Cloud-basierten „Failover Environments“ wird beim Ausfall oder schwerwiegenden Unterbrechungen ein Ersatzsystem eingeschaltet.
D wie Dunning-Kruger-Effekt
Mit dem Dunning-Kruger-Effekt bezeichnet man die kognitive Verzerrung im Selbstverständnis inkompetenter Menschen, das eigene Wissen und Können zu überschätzen. Dieses Phänomen basiert auf der Unfähigkeit, sich selbst mittels Metakognition objektiv beurteilen zu können. Der Begriff geht auf eine Publikation der beiden US-amerikanischen Psychologieprofessoren David Dunning und Justin Kruger im Jahr 1999 zurück und beschreibt die 4 Phasen der Selbstüberschätzung. In ihrer Studie kamen Dunning und Kruger zu erstaunlichen Ergebnissen. Sie konnten anhand einer Vielzahl von Probanden belegen, dass Unwissenheit (Nichtwissen oder Halbwissen) oft zu mehr Selbstvertrauen führte als Wissen oder vereinfacht ausgedrückt: Je inkompetenter eine Person, desto größer ihr Selbstbewusstsein. Die Studie belegte, dass weniger kompetente Personen häufig dazu neigen, entweder ihre eigenen Fähigkeiten zu überschätzen, überlegene Fähigkeiten bei anderen nicht zu erkennen und/oder das Ausmaß ihrer eigenen Inkompetenz nicht richtig einzuschätzen. Dunning und Kruger befragten in ihrem Experiment Studenten der Cornell Universität in New York u. a. auch zu rein erfundenen Themen, die in der Wissenschaft nicht existieren. Als die Probanden darauf angesprochen wurden, behauptete fast die Hälfte über genügend Hintergrundwissen zu verfügen, um sich darüber eine Meinung bilden zu können. Dunning erklärte das Phänomen wie folgt: „Wenn man inkompetent ist, kann man nicht wissen, dass man inkompetent ist […]. Die Fähigkeiten, die Sie benötigen, um eine richtige Antwort zu geben, sind genau die Fähigkeiten, die Sie benötigen, um zu erkennen, was eine richtige Antwort ist.“ Inkompetenz und Ignoranz treten oftmals zusammen auf. Daher wird der Dunning-Kruger-Effekt auch als eine mögliche Erklärung für die Ignoranz gegenüber wissenschaftlichen Prozessen herangezogen. Schon Sokrates stellte in seiner Apologie mit den Worten „Ich weiß, dass ich nichts weiß“ klar, dass Weisheit mit dem Bewusstsein über das eigene Nichtwissen beginnt. Derartige Einsichten wird man von Betroffenen des Dunning-Kruger-Phänomens nicht hören. Sie sind selbstbewusst bis überheblich von ihrer intellektuellen Überlegenheit überzeugt und versuchen diese regelmäßig anderen gegenüber zu demonstrieren, womit sie in gleicher Regelmäßigkeit das Gegenteil erreichen.
Das Phänomen ist unter diversen Namen und in Ausprägungen bekannt. Im Zusammenhang mit dem Intelligenzquotienten spricht man auch vom Downing-Effekt oder aus dem Englischen „illusory superiority”. Der Dunning-Kruger-Effekt wurde an Nordamerikanern nachgewiesen und in zahlreichen Studien auch in Europa bestätigt. Aufgrund der kulturellen Unterschiede kann man dieses Phänomen allerdings nicht auf andere Regionen übertragen. Asiaten z. B. tendieren eher dazu, ihre Fähigkeiten zu unterschätzen und nehmen Unwissenheit und Misserfolge zum Anlass, sich zu verbessern.
Der entgegengesetzte Effekt wird als Hochstapler-Syndrom bezeichnet und kann als Extrapolation der von Dunning und Kruger untersuchten inversen Korrelation zwischen Kompetenz und Selbstwahrnehmung hin zu hohen Kompetenzen angesehen werden. Der Effekt beschreibt die Selbstwahrnehmung insbesondere sehr kompetenter Menschen, die der Meinung sind, den eigenen Erfolg nicht verdient zu haben.
D wie Dynamic Capabilities
Dynamic Capabilities bilden die Klammer für widersprüchliche Vorstellungen, dass ein Unternehmen stabil genug ist, einen unverwechselbaren, ursprünglichen Wert zu liefern (Purpose) und gleichzeitig adaptiv genug ist, um sich agil zu verändern, wenn die äußeren Bedingungen dies erforderlich machen. Deshalb werden sie auch als Mikrofundamente und Fähigkeiten höherer Ordnung in der Evolution von Unternehmen bezeichnet. Dynamic Capabilities machen Unternehmen einzigartig und sind fast immer an originelle Geschäftsmodelle und -innovationen gebunden. Sie sind bei der digitalen Transformation die höchstrelevante und alles entscheidende Zukunftskompetenz von Unternehmen.
D wie Dynamic Pricing
Der Begriff Dynamic Pricing (auch Surge Pricing) beschreibt ein dynamisches Preismanagement und steht für eine Preisstrategie, bei der Unternehmen aufgrund der aktuellen Marktsituation den Preis für Produkte oder Dienstleistungen dynamisch anpassen. Diese Preisanpassung wird anhand von definierten Algorithmen automatisch berechnet, die sich permanent weiter entwickeln. Hierbei werden unterschiedliche Faktoren wie Angebot und Nachfrage, Wettbewerbspreise, verhaltenswissenschaftliche Aspekte sowie andere externe Faktoren wie z. B. Wetter, Feiertage usw. mit einbezogen. Eine besondere Form des dynamischen Pricing ist das Revenue Management.
Dynamic Pricing wird in unterschiedlichen Formen angewendet:
- Segmentierte Preisgestaltung bietet unterschiedliche Preise für verschiedene Kunden. Hierfür wurden vorab Kundensegmente gebildet (Buyer Personas).
- Zeitbasierte Preisgestaltung kommt zum Einsatz, wenn Kunden für die Bereitstellung bestimmter Angebote zu einem bestimmten Zeitpunkt (Wochenende, Feiertage, Randzeiten) bereit sind, einen höheren Preis zu zahlen.
- Preisgestaltung nach exogenen Marktbedingungen erfolgt auf Indikatoren, die häufig außerhalb der Branche liegen wie z. B. ein allgemeiner Anstieg von Rohstoffpreisen aus dem Weltmarkt, eine Verknappung von Ressourcen z. B. durch Krisen oder dgl.
- Spitzenpreise werden eingesetzt, um im Zeitraum der höchsten Nachfrage einen höheren Preis durchzusetzen.
Rule Engines bilden die Vorstufe zu intelligentem Pricing. Hierbei werden Preisanpassungen statisch und nicht selten manuell vorgenommen, z. B. in dem die Preise von Wettbewerbern beobachtet und situativ um einige Prozentpunkte angepasst werden. Diese Vorgehensweise folgt keinen intelligenten Regeln und eignet sich nicht für eine aktive und kontextbasierte Preisgestaltung. Außerdem stößt diese Form der Preisanpassung bei einer wachsenden Zahl von Wettbewerbern und größer werdenden Sortimenten, einem größer werdenden Radius des Einflussgebietes sowie zunehmender Geschwindigkeit von Marktveränderungen schnell an seine Grenzen.
Dark Horse Prototyp
D wie Dark Horse Prototyp
Dark Horse Prototyping beschreibt eine sehr spezielle Methode im →Design Thinking und wird immer dann eingesetzt, wenn besonders verrückte Ideen oder andersartige (disruptive, radikale) Innovationen mit einem höheren Risiko entwickelt werden sollen. Erfahrungsgemäß tendieren Unternehmen eher zu →inkrementellen Innovationen, die sich naturgemäß vom Status quo wenig unterscheiden und sich an den bestehenden Lösungen orientieren. Dagegen schaffen polarisierende Ansätze meist die Potentiale mit dem größten Impact. Dark Horse Prototypen sind aufgrund ihres ergebnisoffenen Charakters besonders in der divergierenden Phase der Entwicklung und Prototypisierung von Ideen anzusetzen. Die Methode empfiehlt sich, wenn Situationen grundlegend hinterfragt werden sollen und selbst gesetzte Grenzen und gewohnte Praktiken überwunden werden sollen. Hierzu ist wichtig, dass im Team ohne Denkverbote und limitierende Faktoren die interessantesten, herausforderndsten und aufregendsten Ideen ausgewählt werden. Die Herausforderung besteht darin, auch unvorstellbare Visionen zuzulassen. Anschließend wird ein Prototyp erstellt und die Stärken, Schwächen und Potentiale im Team analysiert.
Der Begriff Dark Horse ist an den Pferderennsport angelehnt, bei dem das „Schwarze Pferd“ die niedrigsten Aussichten auf den Sieg hat und somit gleichzeitig den größten Gewinn erzielen würde.
DARPA
D wie DARPA
DARPA ist das Akronym für Defense Advanced Research Projects Agency. Diese Forschungs- und Entwicklungsbehörde des US-Verteidigungsministeriums ist für die Entwicklung neuer Technologien verantwortlich und geht auf die ursprüngliche ARPA (Advanced Research Projects Agency) zurück, die im Februar 1958 von Präsident Dwight D. Eisenhower als Reaktion auf den sowjetischen Start von Sputnik 1 im Jahr zuvor gegründet wurde. Durch die Zusammenarbeit von Wissenschaft und Forschung, Industrie und ausgewählten Schlüsselpartnern definiert, formuliert und koordiniert DARPA verschiedene Forschungs- und Entwicklungsprojekte, um bahnbrechende Technologien zu entwickeln und die Grenzen von Technologie und Wissenschaft zu erweitern. Auch das →ARPA-Net, aus dem sich später das Internet entwickelte, war in dieser Forschungs- und Entwicklungsbehörde angesiedelt und zu Beginn als militärisches Projekt angelegt. Die DARPA hat zudem wesentlichen Anteil an der Entwicklung von Personal Computer, GPS, Wettersatelliten, Stealth-Technologie, Drohnen, Sprachschnittstellen u. a.
Data Lake
D wie Data Lake
Der Begriff Data Lake beschreibt die Speicherung von Daten in ihrem Rohformat. Diese Rohdaten werden erst in ein anderes Format umgewandelt, wenn sie verwendet werden. Dies nennt man auch Schema-on-Read und ist ein kostengünstiges, schnelles Verfahren. Für entsprechende Analysen im Big Data ist dies ein guter Ausgangspunkt, da diese Plattform auch als Data-Management genutzt werden kann.
Data Mining
D wie Data Mining
Unter Data Mining versteht man die systematische Anwendung von computergestützten Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Daten, um in vorhandenen Datenbeständen Muster, Trends und/oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren u. a. auf statistischen Methoden. Diese kommen bei der Potenzialanalyse zum Einsatz, um z. B. typische Warenkörbe zu analysieren (z. B. welche Produkte werden häufig zusammen gekauft oder in welchem Zusammenhang oder welche Faktoren sind ausschlaggebend für Kunden- und Markenloyalität). Weitere Anwendungen sind z. B. Charakterisierungsaussagen wie z. B. der Bestimmung von Erfolgsdeterminanten eines Web-Auftritts. Data Mining kommt zunehmend zum Einsatz, da Unternehmen erkennen, dass die gesammelten und verfügbaren Daten z. B. über das ERP- und/oder CRM-System für strategische Entscheidungen sowie im operativen Management eher ungeeignet sind und effiziente Analyseinstrumente fehlen, um aus den Datenmengen die relevanten Informationen für Entscheidungsträger zu extrahieren. Die Verwendung von statistischer Signifikanz reicht hierzu nicht aus. Beim Data Mining kommen integrierte Methoden und Verfahren der Künstlichen Intelligenz und der Statistik sowie Modelle des Anwendungsbereiches zum Einsatz. Im Gegensatz zu den klassischen Methoden reduziert sich Data Mining nicht nur auf die Prüfung manuell aufgestellter Hypothesen, sondern erweitert den Ansatz durch Generierung neuer Hypothesen.
Data Mining setzt sich zusammen aus den Komponenten Datenzugriff, dem Modelltyp, dem Interessantheitsmaß und dem Suchverfahren. Der Prozess ist Teil des so genannten Knowledge Discovery in Databases (KDD). Häufig werden die Begriffe →Big Data und Data Mining im gleichen Kontext verwendet, was nicht korrekt ist. Big Data befasst sich mit besonders großen Datenmengen, die mit herkömmlichen Methoden und Tools nicht effizient verarbeitet werden können. Data Mining kommt zwar auch bei großen Datenmengen zum Einsatz, ist aber nicht auf Big Data beschränkt. Denn Data Mining erweitert den eigentlichen Vorgang um die Analyse von Daten in Bezug auf relevante Zusammenhänge und Erkenntnisse. Während Big Data große Datenmengen liefert und die geeignete technische Plattform für eine effiziente Verarbeitung zur Verfügung stellt, konzentriert sich Data Mining auf den eigentlichen Vorgang der Gewinnung von Erkenntnissen aus den vorliegenden Daten.
DBaaS (Database as a Service)
D wie DBaaS (Database as a Service)
DBaaS steht für Database as a Service und bezeichnet einen Service, bei dem Unternehmen ihre Datenbanken oder -systeme nicht mehr über die eigene Infrastruktur betreiben und durch eigene Mitarbeiter betreuen, sondern diese über eine Cloud eines Dienstleisters bereitgestellt bekommen. Dies spart personelle und technische Kapazitäten und somit Kosten. Außerdem können Unternehmen auf das Know-how und die Erfahrung des Anbieters zurückgreifen. Eine gesicherte Netzwerkverbindung sorgt dafür, dass alle Mitarbeiter und Programme jederzeit Zugang zu allen relevanten Informationen haben. Die Abrechnung erfolgt in Form eines nutzungsbezogenen Tarifs.
Database as a Service ist artverwandt mit →Platform as a Service oder →Infrastructure as a Service.
De Bono
D wie De Bono
→6 Hüte Methode
Deep Tech
D wie Deep Tech
Der Begriff Deep Tech taucht vor allem im Umfeld von Startups und Innovationen auf und bezeichnet innovative Technologien in vielen Bereichen. „Tech“ steht eindeutig für „Technologie“, während „Deep“ eine multidimensionale Bedeutung hat. Im Gegensatz zu anderen Technologieunternehmen, die auf bestehende Software zurückgreifen oder diese modifizieren und bei denen Technologie nur Mittel zum Zweck ist und nicht den Kern des eigentlichen Geschäftsmodells darstellt, steht die Technologie bei Deep Tech-Startups dagegen im Mittelpunkt. Des Weiteren ist typisch, dass deren Lösungen in der Regel für den B2B-Bereich entwickelt werden und einen hohen Innovationsgrad aufweisen. In einigen Fällen wird der Begriff Deep Tech auch synonym für Denkfabriken und/oder bahnbrechende wissenschaftliche oder technische Erkenntnisse verstanden. Unternehmen, die in diesem Bereich entwickeln oder ein Geschäftsmodell aufbauen, stehen häufig an der Schwelle zu bedeutenden Durchbrüchen, die auf Jahre den Markt beeinflussen oder auf Jahrzehnte verändern können. „Deep“ steht hierbei synonym für das Potenzial an Möglichkeiten, weshalb Deep Tech-Startups häufig in Verbindung mit künstlicher Intelligenz (KI) und maschinellem Lernen („Deep Learning“) erwähnt werden.
Deep Work
D wie Deep Work
→ Time Boxing
Deep Work Hypothese
D wie Deep Work Hypothese
Deep Work ist grundsätzlich keine neue Arbeitsmethode. Die Deep Work Hypothese dagegen wurde von Professor Cal Newport entwickelt und beschreibt eine hoch konzentrierte Arbeit für etwa vier Stunden, bei der man sich ohne Ablenkung oder Unterbrechung auf kognitiv anspruchsvolle Aufgaben konzentriert und somit wertvolle Ergebnisse in kürzerer Zeit erzielt. Die höchste Stufe wird erreicht, wenn die Ergebnisse schwer zu kopieren sind und einen unersetzlichen Mehrwert bieten. Newport ist überzeugt, dass dadurch die Sinnhaftigkeit der eigenen Arbeit auf einen hohen Level gehoben werden kann.
Das Gegenteil wird als Shallow Work bezeichnet: anspruchslose Arbeit, die keine speziellen Fähigkeiten oder Konzentration verlangt, sondern oberflächlich ist. Hierzu gehören unproduktive Meetings, der erfolglose Rückruf von Telefonaten, das Verfassen von operativen E-Mails, das Erstellen von Reporting oder Präsentationen, das Folgen von Social-Media-Kanälen und dgl. Der „Klassiker“ für unproduktive Arbeit ist das permanente Checken, Lesen und Beantworten von E-Mails. Lt. einer Studie der Harvard Business School-Professorin Leslie Perlow verbringen ca. 80% der Berufstätigen mehr als zwanzig Stunden pro Woche nur damit, ihren E-Mail-Account zu überwachen und zu reagieren. Oberflächliche oder anspruchslose Arbeit kann in Ausnahmen sogar hilfreich sein, wenn sie z. B. die Möglichkeit zur Entspannung oder Entschleunigung bietet. Wichtig ist nur, dass diese meist routinemäßigen Aufgaben keine höhere Bedeutung bekommen als die wichtigen Aufgaben mit Gestaltungs- und Entscheidungscharakter.
Professor Carl Newport ist überzeugt, dass in einer zunehmend wettbewerbsorientierten Arbeitswelt die High Performer über zwei grundlegende Fähigkeiten verfügen: sie können sich komplexe Themen und schwierige Dinge schnell aneignen, um spezifische Fähigkeiten und bestimmte Fertigkeiten zu beherrschen und auszuführen. Außerdem können sie qualitativ hochwertige Ergebnisse erzielen und einen intellektuellen Mehrwert schaffen. Die Deep Work Hypothese basiert auf der Formel für die Produktion von Qualität auf höchstem Niveau: Hochwertige Arbeit = (aufgewendete Zeit) x (Intensität der Konzentration). Um diese zu operationalisieren, schlägt Newport u. a. vor, die Aktivitäten in den sozialen Netzwerken auf max. 15 min. pro Tag in die Randzeiten zu verlagern und seinen Arbeitstag in Blöcke zu strukturieren und im Abgleich mit dem Bio-Rhythmus einzuteilen.
Delphi-Methode
D wie Delphi-Methode
Die Delphi-Methode kommt in der Zukunftsforschung zum Einsatz, auch wenn sie hierfür ursprünglich nicht entwickelt wurde. Die Anlehnung an das Orakel im altgriechischen Delphi ist tatsächlich kein Zufall. Bei der Delphi-Methode werden Interviews nach den Regeln der empirischen Sozialforschung mit mehreren Personen in mehreren Intervallen durchgeführt und ausgewertet. Anschließend werden die Ergebnisse verdichtet und in aufbereiteter Form zur erneuten Bewertung an dieselben Personen oder einen erweiterten Empfängerkreis gesendet. Die zweite Runde dient dazu, die Aussagen zu schärfen, ggf. durch neue Erkenntnisse anzureichern, verschiedene Aussagen zu priorisieren oder bei Widersprüchen abzuwägen und/oder nach zu justieren. In seltenen Fällen werden noch weitere Runden durchgeführt, wenn das Ergebnis der zweiten Welle noch nicht zufriedenstellend hinsichtlich der Forschungsfrage(n) war. Mit der Delphi-Methode bekommt die Meinungsforschung breite und tiefe Einblicke durch mehrere Menschen mit relevantem Fachwissen.
Deming-Zyklus
D wie Deming-Zyklus
→PDCA-Zyklus
Demografie
D wie Demografie
Demografie ist die Mutter aller →Megatrends. Die Veränderungen der globalen Bevölkerungsstruktur wie z. B. das Wachstum, die Verschiebung der Alterspyramide, radikal andere Prioritäten der jüngeren Generation, die Dichte, ethnische Zugehörigkeit, Migrationsdruck sowie unterschiedliches Bildungsniveau und viele andere demografische Aspekte führen zu signifikanten und nachhaltigen Veränderungen in allen Bereichen der Gesellschaft, der Wirtschaft und im Berufsleben.
Nach Prognosen der Vereinten Nationen wird die Weltbevölkerung bis 2030 um mehr als eine Milliarde Menschen wachsen, wobei ein Großteil dieses Wachstums in Schwellenländern stattfinden wird. Bis zum Jahr 2050 werden 80 Prozent der Weltbevölkerung im Alter von unter 60 Jahren in Ländern leben, die aktuell noch als weniger entwickelt gelten. Durch diese so genannten Emerging Markets verschieben sich die wirtschaftlichen Kräfteverhältnisse rund um den Globus. Gleichzeitig werden die Menschen immer älter, so dass sie länger im Ruhestand leben mit erheblichen Konsequenzen für das Gesundheitswesen und der wirtschaftlichen Herausforderung für eine angemessene Versorgung. Konkret bedeutet dieses Wachstum der Weltbevölkerung der über 65-Jährigen von 1,5 auf über 2 Mrd. Menschen, dass gleichzeitig die Zahl der Arbeitnehmer pro Rentner abnimmt (von aktuell 8 auf 4). Nach Analysen des Weltwirtschaftsforums wächst die Lücke in der Altersvorsorge in den acht großen Volkswirtschaften jeden Tag um 28 Mrd. US-Dollar und werden bis zum Jahr 2050 unfassbare 400 Billionen US-Dollar betragen. Dies wäre etwa das Fünffache des aktuellen Umfangs der Weltwirtschaft. Verstärkt wird das Problem der Überalterung dadurch, dass vor allem in den reicheren und gebildeteren Teilen der Gesellschaft immer weniger Kinder geboren werden. Während man noch vor einigen Jahren vor allem die westliche Welt als Hauptproblem der Überalterung ansah, entwickelt sich zunehmend der asiatische Raum als Hotspot. Bereits heute gibt es mehr über 65-Jährige in Asien als Menschen in den USA. Prognosen zufolge wird die Zahl der über 65-Jährigen in Asien bis 2045 sogar größer sein als die Bevölkerung in der Eurozone und Nordamerika zusammen.
Die mittel- bis langfristigen Auswirkungen dieser globalen demografischen Veränderungen werden sich in allen Bereichen bemerkbar machen. Die größten Auswirkungen werden sich in den Gesundheitsausgaben ergeben. Man schätzt, dass die Gesundheitsausgaben in älter werdenden Industrieländern im Jahr 2040 bis 2050 zwischen 5 und 10 Prozent des Bruttoinlandsproduktes liegen werden. Gleichzeitig wird der Markt für medizinische Technologien und Dienstleistungen rasant wachsen. Defizite infolge der demografischen Veränderungen werden Unternehmen zunehmend durch Technologie wie →Automation, →Robotik und →Künstliche Intelligenz kompensieren. Eine besondere Stellung werden sensitive, kollaborierende Roboter, so genannte →Cobots, einnehmen.
Der perfekte Sturm
D wie Der perfekte Sturm
Bei der Gefahr einer weltweiten Rezession (mindestens müssen Europa, die USA und China betroffen sein) spricht man von „Dem perfekten Sturm“. Die Bezeichnung wurde von dem US-Ökonom Kenneth Rogoff erstmals erwähnt und dient Ökonomen als Vorlage, wenn verschiedene Ereignisse gleichzeitig auftreten und ganze Volkswirtschaften in den Abgrund ziehen können. Die Vorlage liefert der gleichnamige Weltbestseller des Romanautors Sebastian Jungers, der von Star-Regisseur Wolfgang Petersen auf die Kinoleinwand projiziert wurde. „Der perfekte Sturm“ ist die Geschichte eines Fischerboots, das vor der Ostküste der USA in ein Wetterphänomen gerät, das nur alle hundert Jahre vorkommt. Mehrere Naturkatastrophen – jede für sich allein bereits eine zerstörende Naturgewalt – treffen aufeinander und richten großes Unheil an. Der „perfekte Sturm“ aus ökonomischer Sicht hat anders als die Romanvorlage gleich sieben Makrokräfte, die sich seit 2020 mit unterschiedlicher Stärke und Geschwindigkeit entwickeln und miteinander verzahnen. Hierzu gehören:
- Pandemie: Covid-19 hat die heiße Phase des Sturms eingeleitet. Eine Pandemie ähnlicher Tragweite hat die Welt seit der Spanischen Grippe vor mehr als 100 Jahren nicht mehr erlebt. Die Entschleunigung der Weltwirtschaft infolge der Corona-Krise schwächten Wirtschaft und Finanzen. Lockdowns an neuralgischen Punkten des Welthandels werden noch Jahre zu spüren sein, wenn die Pandemie längst verschwunden ist.
- Krieg: Für jüngere Menschen in der Europäischen Union war es unvorstellbar, dass auf ihrem Kontinent ein Krieg stattfinden kann. Dieser reduziert sich nicht mehr nur auf militärische Handlungen, sondern ist zu einem Wirtschaftskrieg mutiert, in dem es vor allem um Energielieferungen in den Westen und Getreidelieferungen in die ganze Welt geht. Deutschland trifft die reduzierten bis ausbleibenden Gaslieferungen besonders hart.
- Inflation: Lt. Statistischem Bundesamts sind die Preise für Waren und Dienstleistungen im Oktober 2022 um ca. 10 Prozent teurer gewesen als im vergleichbaren Vorjahresmonat und damit auf einem Höchststand seit 1950. Preistreiber für Gas, Heizöl und Benzin sowie einige Lebensmittel ist der Krieg in der Ukraine. Unabhängig davon steigen vor allem in den Ballungsgebieten nach wie vor die Mieten. Diese Preiserhöhungen schlagen sich in der Inflationsrate nieder. Hinzu kommt der Zinskurs der Zentralbank (EZB) und Politik der Notenbanken sowie die finanziellen Folgen der Pandemie.
- Zinsen: Als Reaktion auf die Inflation heben die Zentralbanken die Zinsen an. Allerdings zu spät und nicht konsequent, wie führende Ökonomen kritisieren. Entweder heben Zentralbanken die Zinsen zu zögerlich an und somit ohne nennenswerte Effekte oder zu großzügig und riskieren das Abwürgen des Wirtschaftswachstums, weil Kredite für Investitionen zu teuer werden. Die Folge wäre eine Rezession.
- Arbeitsmarkt: Viele Unternehmen befinden sich aktuell in einem Dilemma. Die einen können sich die Energiekosten nicht mehr leisten, den anderen fehlt Material für ihre Produkte. Fehlender Absatz führt zu deutlichen Umsatzrückgängen bei gleichzeitig steigenden Kosten. Die Folge: ein Arbeitskräfteüberschuss bei gleichzeitigem Fachkräftemangel lässt den Arbeitsmarkt kollabieren. Entlassungen und Kurzarbeit treffen Arbeitnehmer, deren Schulden durch die Zinsentwicklung rasant ansteigen. Pandemiebedingt (Lockdowns) trifft dies vor allem den Niedriglohnsektor.
- Materialbeschaffung: Die Pandemie wurde zum Brennglas für die hohe Abhängigkeit von Rohstoffen und Materialien aus Asien. Viele Waren hängen in Containern in irgendwelchen Häfen fest. Pandemiebedingt wurden viele Arbeitskräfte abgebaut, die nun erst wieder langsam aufgebaut werden müssen. Der Krieg in der Ukraine zeigt die hohe Abhängigkeit fossiler Rohstoffe aus Russland und ist Preistreiber für energieintensive Produkte. Dies führt u. a. auch zu Einbrüchen in der Bau- und Immobilienbranche. Materialengpässe, hohe Zinsen und hohe Baukosten stellen für viele Bauherren ein unkalkulierbares Risiko dar.
- Geostrategische Gefahr: Der Krieg in der Ukraine und seine wirtschaftlichen und politischen Folgen verdeutlichen, dass ein totalitäres Regime zu einem unberechenbaren Risiko werden kann. Neben Russland wird auch China zu einem unkalkulierbarem Partner. Beide Supermächte streben nach einer neuen Weltordnung, was die USA auf den Plan ruft und eigene Interessen hervorruft. Europa und Deutschland mit seinen Abhängigkeiten von diesen Supermächten hat aktuell wenig entgegen zu setzen. Die unterschiedlichen Interessen innerhalb der EU machen einen Gegenpol nicht einfacher.
Wie in der Romanvorlage „Der perfekte Sturm“ treffen auch wirtschaftspolitisch seltene Faktoren und Ereignisse aufeinander und haben eine Situation geschaffen, die kaum hätte schlimmer werden können und die es so noch nicht gegeben hat. Die sieben Makrokräfte und ihre Auswirkungen auf die globale Wirtschaft sind beispiellos und treten in einer Zeit auf, die ohnehin schon durch Disruption und Ungewissheit geprägt war.
Design Thinking
D wie Design Thinking
Design Thinking ist ein markt- und kundenzentrierter sowie iterativer Ansatz für die Lösung von komplexen Problemen und zur Entwicklung neuer Ideen. Im Gegensatz zu anderen Innovationsmethoden wird Design Thinking nicht als Methode oder Prozess, sondern als Ansatz beschrieben, der auf den Grundprinzipien Team, Raum und Prozess sowie der Abwägung von Nutzen und Wirtschaftlichkeit, technologische Umsetzbarkeit und Marktrelevanz beruht. Die Namensgebung wird auf die Arbeitsweise von Designern zurückgeführt, die bei ihrer Arbeit einem intuitiven Prozess folgen, der im Kern auf Beobachtung und einer hohen Nutzerzentrierung basiert. Mit seiner offenen, kreativen und gleichzeitig systematischen Herangehensweise bietet Design Thinking ein strukturiertes Vorgehensmodell für unterschiedliche Fragestellungen und Problembereiche. Im Zuge der Digitalisierung bietet Design Thinking eine geeignete Methode, um digitale Produkte, Services und Geschäftsmodelle zu entwickeln.
Im Kern basiert Design Thinking auf der Annahme, dass Probleme besser gelöst werden können, wenn Menschen unterschiedlicher Kompetenzen in einem die Kreativität fördernden Umfeld zusammenarbeiten, gemeinsam eine Fragestellung entwickeln, die Bedürfnisse und Motivationen von Menschen berücksichtigen und dann Konzepte entwickeln, die mehrfach geprüft (Iteration) werden. Design Thinking setzt dabei grundlegend auf Empathie.
Der Design Thinking Prozess ist das Herzstück, der Start und vor allem das Ende sind charakteristisch. Der Start beginnt mit einem “Beginners Mind” und der Haltung, dass man nichts weißt. Das Ende ist erreicht, wenn eine Idee materialisiert und konkret implementiert wurde. Der Verlauf dazwischen ist ein iterativer Prozess, in dessen Zentrum der Nutzer und seine Bedürfnisse stehen. Es existieren verschiedene Modelle des Design-Thinking-Prozesses. Am bekanntesten ist das Modell der sechs Schritte:
- Verstehen: Das Problem wird definiert und ein gemeinsames Verständnis geschafft.
- Beobachten: Die Kundenperspektive wird eingenommen und der Bedarf und die Bedürfnisse ermittelt. Absolute Kundenorientierung steht im Vordergrund.
- Standpunkt definieren: Die Ergebnisse der ersten beiden Schritte werden verdichtet und durch Techniken wie Buyer Personas oder Point-of-View validiert.
- Ideen finden: Zu Beginn der Ideenfindung steht ein allgemeines Brainstorming oder andere Kreativitätstechniken. Wichtig ist, dass es in dieser Phase keine Denkverbote gibt und jegliche Ideen ergebnisoffen zusammengetragen werden. Die Ergebnisse werden strukturiert und nach Prioritäten sortiert. Hierbei wird eine erste Gewichtung in Fragen der Effizienz, der Umsetzbarkeit oder der Wirtschaftlichkeit vorgenommen.
- Prototyp: Anschließend wird ein Prototyp erstellt. Hierzu kommen Techniken wie z. B. Wireframes, Post-its, Rollenspiele, Storyboards oder dgl. zum Einsatz. Wichtig ist, dass der Prototyp auf die Bedürfnisse des Kunden ausgerichtet ist und die Lösung seines Problems darstellt.
- Testen: Abschließend müssen die Erkenntnisse und Ergebnisse getestet werden. Funktioniert der Prototyp nicht oder entspricht er nicht den Bedürfnissen der Kunden, kann diese wieder verworfen werden. Dabei spielt Feedback eine wichtige Rolle. Es ist durchaus üblich, dass es bei neuen Produkten mehrere Testphasen gibt, bis das Produkt freigegeben werden kann.
Detraktoren
D wie Detraktoren
Der Begriff Detraktoren beschreibt unzufriedene Kunden, die mit großer Wahrscheinlichkeit bei einem bestimmten Unternehmen oder ein bestimmtes Produkt nicht mehr kaufen werden. Diese lassen sich mithilfe von Umfragen für den →Net-Promoter-Score identifizieren. Detraktoren sind deshalb ein Problem für Unternehmen, da sie in der Regel ihre Unzufriedenheit nicht nur für sich behalten, sondern diese auch anderen mitteilen und somit evtl. andere Kunden davon abhalten können, zukünftig mit der Marke zu interagieren. Deshalb wiegt die Kritik von Detraktoren in der Regel schwerer als die Unterstützung von →Promotoren. Detraktoren können aber auch von Nutzen sein, wenn ihr negatives Feedback genutzt wird, um Verbesserungen bzgl. des Produktes, des Services oder des Unternehmens allgemein vorzunehmen. Idealerweise schafft man es, Detraktoren in Promotoren umzuwandeln.
DGNB
D wie DGNB
Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) definiert in Deutschland die Standards für →nachhaltiges Bauen, auch →Green Building genannt. Ein Team aus Architekten, Bauunternehmern und Wissenschaftlern entwickelt konzeptionelle Ziele und bewertet nachhaltige Gesamtkonzepte anhand ihrer ökologischen, ökonomischen, sozialkulturellen und funktionalen Qualität. Hierbei werden keine Einzelmaßnahmen bewertet, sondern Abhängigkeiten und Wechselwirkungen über kompletten Lebenszyklus. Erreicht ein Neubau- oder Bestandsprojekt die Zielwerte, wird das Gütesiegel „Nachhaltiges Bauen“ verliehen, das die DGNB in den Kategorien Bronze, Silber, Gold und Platin vergibt. Die Nachweisführung für das Bauen im Bestand ist deutlich einfacher, da auf echte Daten zurück gegriffen werden kann, während für Neubauten aufwändige Simulationen durchgeführt werden müssen.
DGSVO (Datenschutz-Grundverordnung)
D wie DGSVO (Datenschutz-Grundverordnung)
Die Datenschutz-Grundverordnung (DSGVO) ist eine Verordnung der Europäischen Union, mit der die Regeln zur Verarbeitung personenbezogener Daten europaweit vereinheitlicht und geregelt werden. Sie trat am 25. Mai 2018 unmittelbar in allen EU-Mitgliedsstaaten in Kraft. Das oberste Ziel ist der Schutz personenbezogener Daten innerhalb der Europäischen Union sowie die Gewährleistung des freien Datenverkehrs innerhalb des Europäischen Binnenmarktes. Die DSGVO besteht aus 99 Artikeln in elf Kapiteln:
- Kapitel (Artikel 1 bis 4): Allgemeine Bestimmungen (Gegenstand und Ziele, sachlicher und räumlicher Anwendungsbereich, Begriffsbestimmungen)
- Kapitel (Artikel 5 bis 11): Grundsätze und Rechtmäßigkeit (Grundsätze und Rechtmäßigkeit der Verarbeitung personenbezogener Daten, Bedingungen für die Einwilligung, Verarbeitung besonderer Kategorien personenbezogener Daten)
- Kapitel (Artikel 12 bis 23): Rechte der betroffenen Person (Transparenz und Modalitäten, Informationspflichten des Verantwortlichen und Auskunftsrecht der betroffenen Person zu personenbezogenen Daten, Berichtigung und Löschung – das „Recht auf Vergessenwerden“ – Widerspruchsrecht und automatisierte Entscheidungsfindung im Einzelfall einschließlich Profiling, Beschränkungen)
- Kapitel (Artikel 24 bis 43): Verantwortlicher und Auftragsverarbeiter (Allgemeine Pflichten, Sicherheit personenbezogener Daten, Datenschutz-Folgenabschätzung und vorherige Konsultation, Datenschutzbeauftragter, Verhaltensregeln und Zertifizierung)
- Kapitel (Artikel 44 bis 50): Übermittlungen personenbezogener Daten an Drittländer oder an internationale Organisationen
- Kapitel (Artikel 51 bis 59): Unabhängige Aufsichtsbehörden
- Kapitel (Artikel 60 bis 76): Zusammenarbeit und Kohärenz, Europäischer Datenschutzausschuss
- Kapitel (Artikel 77 bis 84): Rechtsbehelfe, Haftung und Sanktionen
- Kapitel (Artikel 85 bis 91): Vorschriften für besondere Verarbeitungssituationen (u. a. Verarbeitung und Freiheit der Meinungsäußerung und Informationsfreiheit, Datenverarbeitung am Arbeitsplatz, Zugang der Öffentlichkeit zu amtlichen Dokumenten, Verarbeitung zu im öffentlichen Interesse liegenden Archivzwecken, zu wissenschaftlichen oder historischen Forschungszwecken und zu statistischen Zwecken, bestehende Datenschutzvorschriften von Kirchen und religiösen Vereinigungen oder Gemeinschaften)
- Kapitel (Artikel 92 bis 93): Delegierte Rechtsakte und Durchführungsrechtsakte
- Kapitel (Artikel 94 bis 99): Schlussbestimmungen (u. a. Aufhebung der Richtlinie 95/46/EG und Inkrafttreten der DSGVO)
Unter dem Begriff der „personenbezogenen Daten“ werden alle Informationen zusammen gefasst, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann. Übersetzt heißt dies, dass hierzu alle Angaben zu einer Person wie Namen, Geburtstag, Wohnort bzw. Adressen, medizinische Daten, Fotos, E-Mail-Adressen, Bankdaten bis zu Beiträgen in den sozialen Netzwerken oder auch IP-Adressen zählen. Daten, aus denen die ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen, die Gewerkschaftszugehörigkeit sowie genetische Daten, Gesundheitsdaten und Daten oder Angaben zur sexuellen Orientierung einer natürlichen Person hervorgehen, dürfen nicht verarbeitet werden. Hierbei wird zwischen personenbezogenen Daten im privaten, öffentlichen oder arbeitsbezogenen Umfeld einer Person nicht unterschieden – es geht immer um die Person selbst.
Des Weiteren gilt, dass die Verarbeitung personenbezogener Daten nur aufgrund einer aktiven Erlaubniserteilung zulässig ist. Diese sind in Art. 6 aufgeführt, wovon mindestens einer erfüllt sein muss:
- die betroffene Person hat ihre Einwilligung gegeben
- die Verarbeitung ist für die Erfüllung eines Vertrags oder zur Durchführung vorvertraglicher Maßnahmen erforderlich
- die Verarbeitung ist zur Erfüllung einer rechtlichen Verpflichtung erforderlich
- die Verarbeitung ist erforderlich, um lebenswichtige Interessen zu schützen
- die Verarbeitung ist für die Wahrnehmung einer Aufgabe erforderlich, die im öffentlichen Interesse liegt
- die Verarbeitung ist zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich.
Im letzten Fall ist eine Interessensabwägung gegenüber den Interessen der betroffenen Person erforderlich.
Für Unternehmen hat die DSGVO erhebliche Auswirkungen, nicht nur im Marketing und Vertrieb, sondern auch im HR-Bereich. Für die Nichteinhaltung der Grundsätze und Rechenschaftspflicht können Unternehmen mit einem Bußgeld in Höhe von bis zu 20 Millionen EUR oder bis zu 4% seines gesamten weltweit erzielten Jahresumsatzes geahndet werden. Das europäische Datenschutzrecht gilt auch für Unternehmen außerhalb der EU, soweit diese ihre Waren oder Dienstleistungen im europäischen Markt anbieten. Somit greift die DSGVO auch für die US-amerikanischen Internet-Konzerne.
Betroffene Personen müssen darauf vertrauen dürfen, dass Unternehmen bei der technischen Gestaltung („privacy by design“, „data protection by design“) sowie durch datenschutzfreundliche Voreinstellungen („privacy by default“, „data protection by default“) die grundsätzlichen Anforderungen an den geforderten Datenschutz von der ersten Nutzung an sicherstellen.
Eines der zentralen Anliegen der DSGVO ist das Recht auf Vergessenwerden, das in der Überschrift des Art. 17 ausdrücklich so genannt wird. Es umfasst einerseits, dass eine betroffene Person das Recht hat, das Löschen aller sie betreffenden Daten zu fordern, wenn die Gründe für die Datenspeicherung entfallen. Dabei ist zu beachten, dass der Verantwortliche Daten von sich aus löschen muss, wenn die Rechtsgrundlage für die weitere Verarbeitung entfallen ist. Juristen sind weiterhin uneins, ob z. B. gesetzliche Aufbewahrungspflichten für Unternehmen dem entgegenstehen können. Generell kommt von Medienrechtlern grundsätzliche Kritik an der neuen Datenschutz-Grundverordnung. Diese bemängeln, dass die Verordnung viele Themen und Herausforderungen für den Datenschutz in Suchmaschinen, Sozialen Netzwerken, Big Data und Smart Data, Cloud Computing bis hin zur Künstlichen Intelligenz ignoriert, unterschätzt oder als nicht umsetzbar gestaltet. Auch der Deutsche Anwaltverein sieht Änderungsbedarf, da die vom Gesetzgeber geforderten berufsspezifischen Rechte und Pflichten der Rechtsanwälte nur mit den in der DSGVO hinterlegten Öffnungsklauseln möglich ist, um ein Mandat rechtskonform sicherstellen zu können.
Ein bisher wenig beachtetes Problem ergibt sich aus der Datenerhebung vor Inkrafttreten der DSGVO für die langfristige Speicherung und Weiterverarbeitung personenbezogener Daten wie dies insbesondere in den Bereichen Business Intelligence, Data Warehouse und Machine-Learning der Fall ist. Hierzu gehören u. a. die Interaktion mit Kampagnen und Kanälen, Kaufhistorien, Nutzerinteressen, Kundenstatus oder Cross-Device-Informationen. Alle diese Algorithmen benötigen die Speicherung personenbezogener Daten über einen längeren Zeitraum. Viele dieser Daten wurden vor Einführung der DSGVO oftmals ohne aktive und vorherige Einwilligung gespeichert. Ein nachträgliches Löschen würde erhebliche Löcher in die Tracking-Daten reißen, da nur ein kleiner Prozentsatz von Nutzern nachträglich bereit ist, eine aktive Zustimmung zu erteilen.
Digitale Ethik
D wie Digitale Ethik
Der Begriff der digitalen Ethik (digital ethics) wird unterschiedlich eingesetzt und beschäftigt sich mit moralischen Fragen des digitalen Wandels. Grundsätzlich setzt sich die digitale Ethik mit den sittlichen Grenzen auseinander, die sich durch die Digitalisierung neu gebildet haben oder durch diese verschoben wurden. Einerseits liegt der Fokus auf der technologischen Entwicklung und hinterfragt, wie weit technische Möglichkeiten genutzt werden dürfen, wenn sie z. B. Vorteile für die eine Nutzergruppe und gleichzeitig Nachteile oder Schaden für eine andere Nutzergruppe schafft (Technikethik). Auf der anderen Seite setzt sich die digitale Ethik mit den zwischenmenschlichen Beziehungen in einer digitalen Welt auseinander (Medienethik). Dazwischen liegt das weite Feld im Umgang mit Daten und Datenschutz, nachdem Informationen eine immer wichtigere Ressource wird (Medienethik).
Somit deckt die digitale Ethik ein breites Spektrum ab, reflektiert kritisch die Entwicklungen der Digitalisierung und fragt nach sittlich-moralischen Grenzen des Erlaubten oder Vertretbaren. Die Grundphilosophie hinter der digitalen Ethik lautet: Das Verhältnis zwischen Mensch und Maschine sollte in einer zunehmend technologisierten Gesellschaft nicht nur durch das technisch Machbare, sondern auch durch das moralisch Wünschenswerte bestimmt werden. Die Werte einer freiheitlich-demokratischen Gesellschaft reduzieren sich nicht auf die analoge Welt, sondern sind auch in sämtlichen digitalen Formaten anzuwenden. Daher formuliert die digitale Ethik Handlungsanweisungen und Empfehlungen (keine Verbote!), da eine allgemeine Akzeptanz für die Ethik von zentraler Bedeutung ist.
Der Schwerpunkt der digitalen Ethik beschäftigt sich mit der Erhebung und Verwendung von Daten und dies im Zusammenhang mit dem Datenschutz. Somit ist die digitale Ethik die moralische Messlatte für die Datenökonomie. Außerdem liegt ein Schwerpunkt in der Anonymität im Internet und der sich daraus ergebenden Probleme (z. B. anonymes Cybermobbing). Ebenfalls beschäftigt sich die digitale Ethik mit dem Einsatz von künstlicher Intelligenz in besonders sensiblen Bereichen wie z. B. der Medizin oder der Sicherheit z. B. beim Abwägen von Personenschäden beim autonomen Fahren. Außerdem setzt sich die digitale Ethik mit der Herausforderung des digitalen Wohlbefindens auseinander und sucht nach Lösungen, wie trotz oder wegen der demografischen Entwicklung die Digitalkompetenz der Gesellschaft sichergestellt werden kann und ältere und/oder weniger technikaffine Menschen nicht abgehangen werden.
Digitale Innovationen
D wie Digitale Innovationen
Nicht jede digitale Entwicklung ist automatisch eine Innovation. Und eine Innovation muss nicht zwangsläufig auf digitaler Basis stattfinden. Da beide Begriffe allerdings häufig synonym verwendet werden, ist bei vielen Menschen genau dieser Eindruck entstanden. Mit Innovation wird vielfach Digitalisierung verstanden und Digitalisierung übersetzen viele Menschen mit Transformation als höchste Stufe oder Disruption als radikalste Form von Veränderungen. Digitalisierung hat den Innovationsbegriff komplett verändert und radikal erweitert. Deshalb ist wichtig, digitale Lösungen als operative Unterstützung von digitalen Innovationen zu differenzieren und je nach Anwendung zu kategorisieren. So unterscheiden sich z. B. hybride Lösungen, bei denen analoge Prozesse digitalisiert werden von digitalen Prozessen in Organisationen. Davon unterscheiden sich digitale Tools zur Unterstützung analoger oder integriert in digitale Prozesse vom digitalen Servicedesign oder der digitalen Supply Chain. Digitale Geschäftsmodelle und -prozesse sind nicht gleichzusetzen mit digitalen Tools zur Beratung und Bestellung oder digitalen (agilen, iterativen) Arbeitsmethoden wie z. B. Srum, Kanban, Sprints und dgl. Auch digitales Projektmanagement wie das Monitoring des gesamten Innovationsprozesses inkl. Ressourcenmanagement, Risikomanagement, Trendscouting usw. stellt eine eigene Disziplin dar und darf mit den vorhergenannten Begriffen nicht verwechselt oder synonym gleichgesetzt werden.
Digitale Innovationen werden in verschiedene Bereiche unterschieden wie
- Geschäftsbeziehung (Kunden-, Lieferanten- und Partnerbeziehung),
- Leistungsebene (Produktangebot, Services und Dienstleistungen) und
- Organisation (Prozesse, Strukturen, Datenmanagement und Monitoring, Kultur und Führung).
In der Operationalisierung von digitalen Innovationen hat sich bewährt, in Anlehnung an das klassische Canvas-Modell das „Digital Innovation Model“ anzuwenden.
Digitale Lösungen zur operativen Unterstützung von analogen und/oder digitalen Geschäftsprozessen, digitale Innovationen im Servicedesign und/oder digitale Geschäftsmodellinnovationen werden wesentlich durch die Treiber der Digitalen Transformation beeinflusst. Entscheidend ist, ob Innovationen eher markt- oder technologiegetrieben sind. Oder anders ausgedrückt: muss die Technologie entwickelt werden, um eine Idee umsetzen zu können oder bereitet die Technologie den Boden, um neue Ideen entwickeln zu können.
Digitalen Vertrieb
D wie Digitalen Vertrieb
→Vertrieb der Zukunft
Digitaler Geruch / digitaler Geschmack
D wie Digitaler Geruch / digitaler Geschmack
Die Wissenschaft und Forschung arbeitet seit einiger Zeit daran, den Geruch und den Geschmack zu digitalisieren. Das Potenzial und die Möglichkeiten für eCommerce und andere Anwendungen wären gigantisch. Beide Projekte sind sehr anspruchsvoll, da geruchs- und/oder geschmacksintensive Stoffe nicht selten über hunderte verschiedene Komponenten verfügen. Hierbei geht es nicht um ein Parfüm oder eine asiatische Suppe, an die man spontan denkt. Selbst vermeintlich „einfache“ Lebensmittel wie z. B. Kaffee können bis zu 200 Duftkomponenten enthalten. Das menschliche Gehirn wertet die Informationen über Geschmack und Geruch gleichzeitig aus, da der Mensch nur so z. B. die Feinheiten eines Gerichtes schmecken und riechen kann. In dem Forschungsprojekt werden die verschiedenen Bestandteile, die den Geruch oder Geschmack verursachen, zerlegt und die Elemente der Komponenten anschließend entschlüsselt. Hierbei spielen nicht nur Art und Menge der Komponenten eine große Rolle, sondern auch deren Konzentration. Mit Hilfe leistungsstarker Computer und spezieller Software können die Geruchs- und Geschmacksinformationen in einen digitalen Code oder Schlüssel transferiert werden. Damit der Mensch diesen digitalisierten Duft oder Geschmack wieder aufnehmen kann, wird ein Duft- oder Geschmacksproduzent benötigt, der echte Materie produziert. An diesem Punkt hängen aktuell die Entwicklungen, da die Wissenschaft und Forschung trotz anfänglicher Erfolge noch keine reproduzierbare Lösung gefunden hat. Generell lässt sich festhalten, dass die Entwicklung beim Geschmack und bei den Düften noch in den Kinderfüßen steckt und auch erst knapp 30 Basisdüfte entschlüsselt wurden, während die menschliche Nase über 350 Arten von Geruchsrezeptoren besitzt.
Digitaler Reifegrad
D wie Digitaler Reifegrad
Mit dem digitalen Reifegrad wird der aktuelle Stand eines Unternehmens auf dem Weg zur digitalen Transformation bezeichnet. Dieser wird häufig in Form eines Faktors ausgewiesen. Der digitale Reifegrad ist nicht nur für Unternehmen wichtig, um den Status quo zu dokumentieren, sondern auch um konkrete Handlungsoptionen aufzuzeigen. Je höher der Reifegrad ausgewiesen wird, desto weiter hat ein Unternehmen z. B. seine digitalen Prozesse automatisiert oder sein Geschäftsmodell digitalisiert oder auch die Unternehmenskultur transformiert. Der digitale Reifegrad ist somit ein Instrument zur systematischen Überprüfung und Bewertung sowie kontinuierlichen Weiterentwicklung von Technologie und Ökosystemen, Fähigkeiten und Kompetenzen, Prozessen und Strukturen sowie Rahmenbedingungen für Organisationen. Dabei betrachtet der Digitale Reifegrad unterschiedliche Dimensionen. Hierzu gehören
- Strategie wie z. B. Aspekte der Unternehmensführung, strategische Digitalisierungsziele, digitale Geschäftsmodellentwicklung oder -innovationen sowie Investitionen in Digitalisierungstechnologien
- Technologie wie z. B. IT-Infrastruktur und Ökosystem, Big Data und Datenmanagement
- Produkt und Dienstleistungen wie z. B. Produktentwicklung sowie smarte Produkte und intelligente Services
- Organisation und Prozesse wie z. B. Standardisierungsgrad, Agilität von Prozessen sowie Innovationsmanagement
- Mitarbeiter wie z. B. Aufgaben und Zuständigkeiten, Qualifikation und Kompetenzen wie z. B. der Methodenkoffer, Motivation und Führung sowie Unternehmenskultur als Rahmen für den Change-Prozess.
Es gibt eine ganze Reihe von Tests, mit denen der digitale Reifegrad von Unternehmen gemessen werden kann wie z. B. der →Readiness-Check. Alternativ werden immer öfter Ansätze aus dem Gamification genutzt wie z. B. Serious Games.
Digitaler Zwilling
D wie Digitaler Zwilling
Der Begriff digitaler Zwilling wird synonym und „unscharf“ für verschiedene Funktionen verwendet. Zum einen steht der Begriff für virtuelle oder digitale Assistenten. Auch für eine digitale Kopie oder Dublette einer analogen Vorlage wird der Begriff verwendet. Hierbei kann es sich um ein computergestütztes Modell eines materiellen oder immateriellen Objektes handeln wie z. B. ein Produkt, Service oder Geschäftsmodell. Man spricht dann auch von virtuellen oder digitalen Zwillingen im „realen Raum“. Alternativ wird der Begriff auch für die digitale Repräsentanz materieller oder immaterieller Objekte in einem digitalen Geschäftsmodell verwendet. Dann werden virtuelle oder digitale Zwillinge im „virtuellen Raum“ beschrieben. Werden beide Optionen miteinander verbunden, spricht man auch vom „digitalen Avatar“. In dem Fall ist ein digitaler Zwilling ein virtuelles Modell z. B. eines Prozesses, eines Produktes oder einer Dienstleistung, mit der die reale und virtuelle Welt miteinander verbunden werden. Je nach Anwendung verwenden diese digitalen Zwillinge reale Daten von z. B. installierten Sensoren, mit denen z. B. Arbeitsbedingungen repräsentiert werden. Diese Kopplung der virtuellen und realen Welt ermöglicht die Analyse von Daten und die Überwachung von Systemen, um z. B. Probleme rechtzeitig zu erkennen, zu verstehen und zu reagieren, bevor diese überhaupt auftreten. Somit können Ausfallzeiten vermieden und/oder Prozesse on Demand optimiert werden.
Digitales Befähigungsmodell
D wie Digitales Befähigungsmodell
Die digitale Transformation von Unternehmen ist weder ein Projekt noch ein digitaler Prozess. Der Erfolg wird maßgeblich davon abhängen, ob und wie sich Unternehmen mit ihren Organisationen und Strukturen flexibel und dynamisch an die sich kontinuierlich verändernde Umgebung anpassen können – und dies in allen Unternehmensbereichen. Hilfestellung bietet das digitale Befähigungsmodell, mit dem im ersten Schritt der digitale Reifegrad von Unternehmen bestimmt wird. Dieser analysiert den individuellen Ausgangspunkt, um passgenaue Zielstellungen und zielgerichtete Maßnahmen für eine erfolgreiche Transformation zu entwickeln. Das digitale Befähigungsmodell von e-nnovalytics® umfasst sechs Bereiche:
- Ziele und Strategie
- Kultur und Werte
- Führung und Zusammenarbeit
- Organisation, Struktur und Zuständigkeiten
- Daten, Prozesse und Abläufe
- Technologie, Know-how und Kompetenzen
Die Reihenfolge der sechs Bereiche richtet sich nach dem strategisch konzeptionellen Grad und wird mit jedem weiteren Bereich operativer. Ein entsprechendes Framework unterstützt die konkrete Umsetzung und hilft dabei, ein gemeinsames Verständnis über Digitalisierung, Innovation, Transformation und Agilität zu entwickeln. Es unterstützt bei der Entwicklung einer Innovations- und/oder Digitalisierungsstrategie sowie einer operativen Roadmap. Außerdem gibt es Hilfestellung, wie Unternehmen digitale Fähigkeiten aufbauen und agile Methoden im Alltag einsetzen. Der Aufbau einer innovationsfreundlichen Unternehmenskultur gehört genauso dazu wie Digital Leadership, agile Kollaboration und die Integration und Motivation aller Mitarbeiter. Somit schafft das Befähigungsmodell das Fundament für digitale Innovationen.
Neben dem Framework gibt es auch die Möglichkeit, den digitalen Reifegrad von Unternehmen über Gamification zu ermitteln. Hierzu wurde unter der Marke Innogramm® ein Serious Game entwickelt. Dieses Plan- und Strategiespiel nutzt die gamifizierte Diagnostik, um den Reifegrad von Unternehmen, Geschäftseinheiten, Abteilungen oder einzelner Mitarbeiter zu bestimmen, um anschließend individuelle Lösungen zur Optimierung zu entwickeln.
Digitale Sprachassistenten
D wie Digitale Sprachassistenten
Digitale Sprachassistenten werden synonym auch als virtueller Assistent bezeichnet und beschreiben eine Software, die mit Hilfe von Spracheingabe bedient wird. Für die Nutzung der Geräte, Apps oder Anwendungen ist keine Tastatur notwendig. Die Assistenten starten mit Hilfe eines bestimmten Aktivierungswortes, wodurch ein Mikrofon gestartet wird und die Spracheingabe aufnimmt. Diese wird an ein Ökosystem gesendet, das die Spracheingabe mit Hilfe von Algorithmen, Big Data und künstlicher Intelligenz in Echtzeit verarbeitet. Das Ergebnis wird in der Regel ebenfalls in gesprochener Form ausgegeben. Digitale Sprachassistenten verwenden verschiedene Voice-Technologien wie z. B. Speech-to-Text oder Text-to-Speech-Verfahren, Slot Filling sowie Intenterkennung. Optimiert mit künstlicher Intelligenz kann die Spracheingabe schnell und präzise in Textform transkribiert werden und umgekehrt. Mittels Deep Neural Networks können digitale Sprachassistenten die Absicht des Nutzers ermitteln (Intent Recogniton) und durch gezieltes Nachfragen näher konkretisieren oder bei Unklarheiten durch intelligentes Nachfragen spezifizieren.
Alle großen Internetkonzerne haben eine eigene Technologie für digitale Sprachassistenten. Alexa von Amazon, Siri von Apple, Cortana von Microsoft, der Google Assistant oder Bixby von Samsung haben hierbei einen unterschiedlich großen Funktionsumfang. Alle diese Sprachassistenten sind für den B2C-Markt konzipiert und weisen im B2B-Markt einige Defizite auf. Neuentwicklungen wie z. B. Kidou schließen diese Lücke. Diese digitalen Sprachassistenten sind nicht mehr nur auf „Befehle“ programmiert, sondern können auf umgangssprachliche Fragestellungen eingehen. Durch gezieltes Training erkennen diese neuen Sprachassistenten auch Fachbegriffe, Umgangssprache und selbst Dialekt. Eine Anbindung an das unternehmenseigene Ökosystem ermöglicht einen fachspezifischen Dialog.
Digitale Wasserzeichen
D wie Digitale Wasserzeichen
Ein digitales Wasserzeichen kann als Code oder Zeichenfolge in einer Bild-, Ton- oder Videodatei, aber auch in Programmen oder anderen digitalen Dokumenten eingebettet werden. Der Begriff wird für zwei unterschiedliche Anwendungen gebraucht.
Zum einen dient er dazu, einen Urheber oder einen berechtigten Benutzer eindeutig zu identifizieren. Digitale Wasserzeichen können sich an zufälligen Stellen des Dokumentes wiederholen. Dies soll sowohl die Erkennung, als auch das Entfernen erschweren. Mit diesem digitalen Wasserzeichen sollen also vorwiegend urheberrechtlich geschützte Werke der entsprechenden Schöpfer von Inhalten, vor einer illegalen Verwendung und Verbreitung geschützt werden. Die Verteilung an sich kann das Wasserzeichen in vielen Fällen nicht verhindern, aber es vereinfacht es für Rechteinhaber eine unrechtmäßige Weitergabe oder Nutzung zu erkennen.
Eine weitere Anwendung besteht in so genannten Smart Labels (elektronische Etiketten), in denen digitale Wasserzeichen eingesetzt werden, um z. B. analoge Verpackungen mit digitalen Services zu verknüpfen. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet. Außerdem kommen RFID- oder NFC-Tags zum Einsatz. Am Point-of-Sales werden darüber hinaus Beacons eingesetzt. Codes beinhalten Pull-Informationen, so dass Inhalte aktiv über Smartphones abgerufen werden müssen. Tags dagegen basieren auf Push-Informationen, so dass Inhalte direkt auf das Smartphone geschickt werden können (DSGVO-konforme Zustimmung vorausgesetzt). Auf dieser Grundlage können intelligente Verpackungen entwickelt werden. Bei der intelligenten Verpackung werden z. B. dynamische Icons bzw. interaktive Piktogramme eingesetzt, die mehrsprachig sind und regionalisiert und personalisiert werden können. Smart Labels werden das Supply-Chain-Management, den Produktlebenszyklus sowie das Customer-Relationship-Management nachhaltig verändern. Aktuelle Anwendungen sind z. B. Herstell-/Abfülldatum bzw. Haltbarkeitsdaten, smarte Einkaufswagen, Gepäckabfertigung, Müllabfuhr, Eintrittskarten u.v.m.
Digital Game-based Learning
D wie Digital Game-based Learning
Der Begriff Digital Game-based Learning beschreibt die Verschmelzung (Synthese) von spielerischer Wissensvermittlung mit Hilfe von Computer- und Videospielen. Hierbei werden verschiedene positive Effekte von digitalen Spielen genutzt, die herkömmliche Lernmethoden nicht bieten können. Hierzu gehört zum einen, dass normaler Leistungsdruck in digitalen Spielen in positive Motivation und somit lernfördernde Effekte umgewandelt wird. Hinzu kommen Ablenkung durch Spielspaß und eine höhere Identifizierung mit einer Zielsetzung. Das Lern- und Motivationspotential von digitalen Spielen führt häufig dazu, dass der Nutzer länger und intensiver lernt als bei herkömmlichen Methoden. Je besser die Interaktion mit dem Nutzer ist (Wechsel von Aktion und Reaktion), umso intensiver ist das Lernergebnis. Spiele sollten den Bedürfnissen der Spieler angepasst werden, die dann nicht nur konsumieren, sondern eigene Geschichten kreieren. Ein großer Vorteil digitaler Lernspiele ist, dass Fehler und Versagen nicht so stark geahndet werden wie im realen Leben. Außerdem sind digitale Spielwelten gut strukturiert und Informationen und/oder Interaktionen werden dann aufgerufen, wenn sie gebraucht werden. Wörter und Definitionen sind in Kontexte von Bildern, Videos oder Dialogen eingebunden. Digitale Spiele fordern und fördern das systemische und systematische Denken. Der Nutzer lernt, einzelne Handlungen im Kontext der Interaktionen zum Umfeld zu sehen. Und digitale Spiele sind perfekt zur Selbstreflexion. „Smart Tools“ wie Avatare oder Belohnungen im Spiel setzen gezielte Impulse und aktivieren Motivation und Leistungswille. Pädagogisch wertvolle Spiele setzen häufig auf cross-funktionale Teams mit unterschiedlichem Expertenwissen.
Digital Game-based Learning kann als Teilgebiet zum Edutainment sowie zum E-Learning gezählt werden. Edutainment vereint Bildung (Education) und Unterhaltung (Entertainment). Zu diesen gehören neben digitalen Lernspielen auch nicht-digitale Lernspiele und Lernvideos usw. Bei E-Learning hingegen kommen auch digitale Medien ohne Spielanteil zum Einsatz. Abhängig von der vorgesehenen Nutzergruppe unterscheiden sich digitale Lernspiele in Art und Ausrichtung ihrer Elemente. Beim Computer-based Training (CBT), Web-based Training (WBT) sowie virtuellen Lernwelten stehen die Lerninhalte im Vordergrund.
Digital Immigrants
D wie Digital Immigrants
Der Gegenbegriff zu →Digital Natives ist der Digital Immigrants. Er bezeichnet Personen, die erst im Erwachsenenalter mit digitalen Medien und Technologien in Berührung gekommen sind. Zu ihnen zählen Jahrgänge, die bis maximal Mitte der 1970-er Jahre geboren wurden. Hinzu kommt, dass sie die „digitale Sprache“ der jüngeren Generation weder beherrschen noch verstehen. Daher kann man häufig beobachten, dass Digital Immigrants digitale Aufgaben vorzugsweise an andere Personen delegieren.
Digital Native
D wie Digital Native
Der Begriff Digital Native (zu Deutsch: digitaler Ureinwohner) wurde erstmals 2001 erwähnt und steht für Personen, die von Kindheit an in der digitalen Welt aufgewachsen sind und den Umgang mit Informationstechnologien und dem Internet von klein auf gelernt haben. Daher steht der Begriff weniger für eine Altersgruppe, mit der häufig die Digital Natives umschrieben werden, sondern für die Art und Weise ihres Umgangs mit Medien und Technologie. Kulturell steht der Begriff auch für die „digitale Sprache“, mit der diese Generation aufwächst. Zu den Digital Natives gehören die →Generation Y (Me oder Millennials) und →Generation Z. Eine Welt ohne digitale Medien wie Software, Hardware und Computer-Peripherie, Internet und Suchmaschinen, E-Mails und Messenger-Dienste, Social Media und Microblogging, mobile Endgeräte wie Smartphones, Tablets und Wearables kennen sie nicht. Hirnforscher haben nachgewiesen, dass sich durch die permanente Nutzung digitaler Medien ihre Hirnstrukturen verändern. Digital Natives haben das Multitasking perfektioniert, in dem sie digitale Medien parallel anwenden und gleichzeitig verschiedene Interaktionen bearbeiten. Digital Natives bevorzugen deshalb Grafiken und arbeiten am besten vernetzt. Zur vollen Entfaltung kommen sie, wenn sie unmittelbar und häufig belohnt werden (→Gamification). Der Gegensatz zu ihnen ist der →Digital Immigrant.
Digital Vortex
D wie Digital Vortex
Der Digital Vortex visualisiert die Veränderungen infolge der zunehmenden Digitalisierung und deren Auswirkungen auf verschiedene Branchen. Untersucht werden diese seit 2015 durch das „Global Center for Digital Business Transformation“. Dargestellt werden die Ergebnisse jedes Jahr in einer Studie. Herzstück ist die Darstellung durch einen Strudel (Vortex), der die jeweilige Stärke widerspiegelt, mit der eine Branche unter Druck gerät. Der Strudel hat in den letzten Jahren nicht nur mehr Geschwindigkeit aufgenommen und ist enger geworden, sondern hat auch neue Branchen erfasst, von denen kaum zu erwarten war, dass diese so schnell im Strudel auftauchen.
Auslöser der Studie und der Darstellung des Digital Vortex waren ursprünglich Wahrnehmung, Einstellung und Verhaltensweisen von Führungskräften mit der digitalen Transformation, die nicht selten ignoriert oder unterschätzt wurde. Der Digital Vortex sollte dazu beitragen, auch Branchen zu sensibilisieren, die von der digitalen Entwicklung noch nicht so stark betroffen waren wie andere. Die Ergebnisse liefern weitaus mehr Informationen über Trends und dynamische Entwicklungen, als ursprünglich geplant war. Im Digital Vortex befinden sich von innen nach außen (Rotation) folgende Branchen:
- Medien/Unterhaltung
- Technischer Handel und Dienstleistungen
- Telekommunikation
- Konsumgüter/Handel
- Finanzen/Banken
- Reisen/Tourismus
- Transport/Logistik
- Bildung
- Dienstleistungen
- Gesundheit/Pharmaindustrie
- Produzierendes Gewerbe
- Energie und Dienstleistungen
- Immobilien Makler und Bauindustrie
Der aktuelle Digital Vortex bestätigt, dass alle bisher genannten Branchen näher an das Zentrum des Wirbels gerückt sind – dort, wo Geschwindigkeit und Größe der Veränderung den größten Druck auf alle Unternehmen ausübt. Die Positionen vieler Branchen haben sich drastisch und unvorhersehbar schnell in die Mitte verschoben. Es ist davon auszugehen, dass in den kommenden Jahren alle Branchen in dem Strudel der Digitalisierung auftauchen werden. Betrachtet man die Entwicklung seit 2015 und legt die Strudel übereinander, ist eine eindeutige Dynamik zu erkennen, mit welcher Geschwindigkeit der Druck für einzelne Branchen zunimmt. Die Auswirkungen der Pandemie sind in dem letzten Digital Vortex noch gar nicht berücksichtigt worden. Prognosen gehen davon aus, dass in den nächsten 5 Jahren disruptive Entwicklungen und Auswirkungen der Digitalisierung nahezu alle Branchen erfassen und stark bereinigen wird. Ein Drittel der Unternehmen soll demnach verdrängt oder sogar eliminiert werden.
D.I.N.K.
D wie D.I.N.K.
D.I.N.K. ist ein Akronym für Double Income No Kids (= doppeltes Einkommen, keine Kinder) und beschreibt ein Zielgruppensegment, das in der Regel Paare bezeichnet, die zwischen 25 und 45 Jahre alt sind, noch keine Kinder haben oder kinderlos bleiben wollen. Da beide Paare berufstätig sind, verfügen sie über ein entsprechend hohes (doppeltes) Einkommen und gelten in der Kundensegmentierung als interessante Zielgruppe.
Disruptive Innovationen
D wie Disruptive Innovationen
Als radikalste Form von Veränderungen gelten disruptive Innovationen. Diese beginnen häufig und meist unscheinbar in einer Nische oder am Rand einer Branche und entwickeln sich nicht selten erst einmal eine Zeitlang unter dem Radar. Grundlage ist entweder eine völlig neue Technologie oder ein völlig neuartiges Geschäftsmodell, mit dem Produkte und/oder Dienstleistungen angeboten werden, die nicht nur neu und einzigartig sind, sondern etablierte Unternehmen und ihre Produkte bis hin zu Geschäftsmodellen oder in Ausnahmen ganze Branchen überflüssig machen. Dies ist der wesentliche Unterschied zu inkrementellen Innovationen, bei denen Bestehendes maßgeblich weiter- oder neu entwickelt werden. Neue Technologien und/oder neuartige Geschäftsmodelle sind allerdings nicht Auslöser oder Ursache für disruptive Innovationen, sondern immer nur die Werkzeuge.
„Disruption geht vom Kunden aus, weil sich deren Bedürfnisse ändern. Der Erfolg digitaler Innovationen und Transformation hängt nicht vom Einsatz neuer Technologien ab. Entscheidend ist, dass wir willens und in der Lage sind, die Welt mit diesen neuen Möglichkeiten neu zu denken.“ (Quelle: Prof. Thales Teixeira, Harvard Business School l Digitale Disruption und Aufmerksamkeits-Ökonomie)
„Disruption entsteht, wenn unversorgte Kundenbedürfnisse angesprochen werden. Startups greifen etablierte Unternehmen niemals in der Breite an, sondern analysieren deren Schwachpunkte innerhalb der Wertschöpfungskette oder an den Markträndern. Neu ist bei vielen disruptiven Innovationen nicht das Produkt, sondern der Denkansatz.“ (Quelle: Clayton M. Christensen („The Innovator’s Dilemma“) gilt als Pionier disruptiver Innovation)
In den meisten Fällen gehen disruptive Innovationen von kleinen Unternehmen als Brancheneinsteiger oder Nischenanbieter aus. Marktführer sind in den seltensten Fällen Treiber dieser Entwicklungen. Anderenfalls müssten diese Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells werden. In traditionellen Organisationen sind disruptive Innovationen kaum möglich, da sich Unternehmen auf ihre Kernkompetenz und mit allen Prozessen auf das Kerngeschäft konzentrieren, Bestandskunden und -umsätze abgesichert und Neukunden eher über traditionelle Verdrängung gewonnen werden, bestehende Planungsvorgaben bonifiziert und somit Neues nicht honoriert wird, das Mindset der Führungskräfte und eine innovationsfreundliche Unternehmenskultur fehlen und den Mitarbeitern die nötigen Freiräume sowie Ressourcen verwehrt werden u.v.m.
Hinzu kommen strukturelle Probleme, da klassische Unternehmen immer noch in Silostrukturen und Matrixorganisationen aufgestellt sind. Und dies, obwohl sich seit Jahren die Erkenntnis durchsetzt, dass diese Organisationsform eher Abgrenzung, Fachbereichsegoismus und Ineffizienz fördern.
disruptive Innovatoren
D wie disruptive Innovatoren
Disruptive Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist ihre Offenheit für Neues, eine hohe Risikobereitschaft und der Mut zu radikalen Innovationen mit disruptivem Potenzial. Ein weiteres Merkmal ist eine innovationsfreundliche Unternehmenskultur und insbesondere die aktive Einbindung und Motivation der Mitarbeiter. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gesehen und nicht als nicht als Top-Down-Prozess in abgegrenzten Fachbereichen. Knapp ein Fünftel der Unternehmen kann den disruptiven Innovatoren zugeordnet werden. Besonders auffallend ist der Anteil von Startups und junger Unternehmen. Ein Viertel von ihnen wurde erst in den vergangenen zehn Jahren gegründet.
→ innovative Milieus
Diversifikationsstrategie
D wie Diversifikationsstrategie
→Sprinkler-Strategie
DMAIC
D wie DMAIC
Das Akronym DMAIC steht für den Kernprozess der Qualitätsmanagement-Methode →Six Sigma und beschreibt dessen Phasen:
- Define (Definieren): was ist das Problem? In dieser Phase wird der Ist-Zustand dokumentiert, analysiert und definiert, welche Zielgruppe welchen Bedarf hat und wie dieser befriedigt werden soll. Auf dieser Basis werden dann die Leistungsmerkmale des Prozesses sowie Rahmenbedingungen (Umfang, Zeit, Budget etc.) definiert.
- Measure (Messen): wie ist die Performance? Zahlen, Daten und Fakten messen die Ausprägung der Leistungsmerkmale (Prozess-Mapping). Ziel ist die Funktionalität des Prozesses zu erfassen sowie die Meilensteine und Prioritäten zu definieren.
- Analyse (Analysieren): Welche Ursachen hat das Problem? In dieser Phase werden die Ursache-Wirkungs-Beziehungen zwischen In- und Outputs qualitativ und quantitativ dargestellt, um Abweichungen von definierten Leistungszielen zu identifizieren. Bewährte Tools sind u. a. →Ishikawa-Diagramme sowie statistische Methoden.
- Improve (Verbessern): Wie lässt sich das Problem eliminieren? Das Ziel dieser Phase sind Lösungsmöglichkeiten für die in der Analysephase identifizierten Probleme. Hierzu werden Kreativitätstechniken wie z. B. →Brainstorming oder →Brainwriting, →Mindmapping oder →Morphologischer Kasten eingesetzt.
- Control (Steuern): Die letzte Phase dient der Implementierung und Steuerung der erreichten Verbesserungen durch Standardisierung und Dokumentation. Die Überprüfung der Zielerreichung erfolgt durch das Controlling.
DMAIC fasst bekannte Vorgehensweisen und bewährte Methoden zu einem systematischen Ansatz zusammen und verknüpft Werkzeuge über die einzelnen Phasen miteinander, so dass Prozesse und Projekte strukturiert und systematisiert werden.
Die Prozessoptimierung DMAIC wurde im Laufe der Zeit weiter entwickelt und angepasst wie z. B. DMADV (DV = Design – Verify) für neue Produkte und DMAEC (E = Engineering) für neue Prozesse.
Double-Diamond-Modell
D wie Double-Diamond-Modell
Das Double-Diamond-Modell ist Teil des →Design Thinkings. Das Herzstück besteht aus den vier Phasen des Double Diamond: Discover, Define, Develop und Deliver. Das Double-Diamond-Modell wurde 2005 vom British Design Council entwickelt und stellt den Nutzer in den Mittelpunkt des Lösungsprozesses. Umfragen, Interviews, Erfahrungsberichte und Feedbacks sind ein zentraler Bestandteil jeder einzelnen Phase des Modells, um notwendige Anpassungen vorzunehmen. Hierbei geht es vor allem um das Verständnis der individuellen Wünsche, Bedarfe und Bedürfnisse. Die Double-Diamond-Strategie betrachtet Servicedesign aus drei Perspektiven: Kundenrelevanz und -attraktivität, technologische Machbarkeit und Entwicklung sowie Wirtschaftlichkeit und Nachhaltigkeit – die Schnittmenge daraus ist die Innovation. Hierbei spielen agile Methoden wie z. B. iterative Prozesse eine essenzielle Rolle: Zielgruppen beobachten, Problem verstehen, Perspektiven wechseln, Ideen entwickeln, Prototyping, optimieren und finale Lösung finden. Eine Abwandlung des Double-Diamond-Modells oder auch 4 Phasen-Modells stellt das so genannte →Münchberger Modell dar.
3D Druck
D wie 3D Druck
3D-Druck ist ein additives Herstellungsverfahren, bei dem Material Schicht für Schicht aufgetragen wird und somit dreidimensionale Objekte entstehen. Der übergeordnete Gattungsbetriff für diese Verfahren ist generative Fertigung oder Rapid-Technologien. Der schichtweise Aufbau der Materialien erfolgt computergesteuert aus einem oder mehreren flüssigen oder festen Werkstoffen nach vorgegebenen Maßen und Formen. Beim Aufbau finden physikalische oder chemische Härtungs- oder Schmelzprozesse statt. Typische Werkstoffe für den 3D-Druck sind Kunststoffe, Kunstharze, Keramiken und speziell aufbereitete Metalle sowie seit Kurzem Carbon- und Graphitmaterialien. 3D-Drucker werden in der Forschung, im Modellbau und zur Fertigung von Mustern und Prototypen (Rapid Prototyping) eingesetzt. Außerdem kommen sie bei der Herstellung von Werkzeugen (Rapid Tooling) und Fertigteilen (Rapid Manufacturing) zum Einsatz und finden Anwendungen in der Baubranche, der Industrie sowie in der Kunst und Medizin. Beim 3D-Druck-Verfahren erhöht sich die Wirtschaftlichkeit mit steigender Komplexität der Bauteilgeometrie und/oder sinkenden Stückzahlen. 3D-Druck-Verfahren haben gegenüber anderen Fertigungen wie z. B. dem Spritzgussverfahren den Vorteil, dass die aufwändige Herstellung von Formen und der Formenwechsel entfällt. Derzeitige Vorbehalte gegen den 3D-Druck gibt es vor allem aufgrund der Tatsache, dass dieses Verfahren noch nicht genormt ist, Erfahrungen fehlen und von den meisten Genehmigungsgremien nicht als Konstruktionsverfahren anerkannt wird. Eine der Schwierigkeiten besteht in den Berechnungen zur Haltbarkeit und Widerstandsfähigkeit. 3D Druck ist mittlerweile im Mainstream angekommen; Forscher arbeiten bereits am →4D Druck-Verfahren.
3. Welle
D wie 3. Welle
Der Begriff der 3. Welle wird häufig im Zusammenhang mit →Drohnen sowie der Entwicklung der →Drohnenökonomie genannt. Er beschreibt die 3 wellenartigen Entwicklungsschritte. Die 1. Welle begann 2008 und beschreibt die Entwicklung der Technologie. Der Fokus der „Bastlerszene“ lag auf Hightech und bedient seitdem einen kontinuierlichen Markt, der kaum wächst. Die 2. Welle begann 2012 und umfasst die Anwendung des Flugmodells zur Freizeitgestaltung und für Luftsportaktivitäten. Vereinfacht ausgedrückt entdeckte der Privatnutzer die Drohne als Spielzeug. In dieser Phase wurden die ersten Apps für Drohnen entwickelt. Der Markt wuchs deutlich. In der 3. Welle, die 2014 begann, entdeckten Unternehmen die Drohne als Werkzeug und integrieren diese zunehmend in eine eigene cloudbasierte Plattformökonomie. Der Entwicklungsverlauf der 3. Welle ist weit rasanter und umwälzender als die ersten beiden Phasen zusammen. Experten arbeiten bereits an Unterwasserdrohnen, mit denen der Planet dann endgültig erforscht werden kann.
Drohnen
D wie Drohnen
Eine Drohne ist ein unbemanntes Flugobjekt bzw. Luftfahrzeug, das ohne eine an Bord befindliche Besatzung autark durch einen Computer oder vom Boden über eine Fernsteuerung betrieben und navigiert werden kann. Die Luftfahrtbehörden unterscheiden zudem noch Flugmodelle und differenzieren nach deren Einsatzzweck. So gehören Flugmodelle zur Freizeitgestaltung oder für Luftsportaktivitäten, zu denen Quadrocopter gehören, nicht zu den unbemannten Luftfahrzeugen. In den letzten Jahren hat auch die Wirtschaft das Potenzial von Drohnen und deren vielseitige Anwendungsmöglichkeiten erkannt, so dass sich eine stark wachsende →Drohnenökonomie entwickelt hat.
Siehe auch →3. Welle
Drohnenökonomie
D wie Drohnenökonomie
Bei →einer Drohne denkt man zunächst an ein fliegendes Spielzeug oder eine fliegende Kamera. Denkt man an einen kommerziellen Einsatz, fallen einem sofort fliegende Paketzustellungen ein. Dabei liegt das wahre Potenzial darin, Daten aus der Luft zu sammeln. Hierfür wurden bisher Flugzeuge oder auch Satelliten eingesetzt. Nachteilig hierbei sind u. a. die Kosten, die Auflösung und zum Teil die Wetteranfälligkeit. Drohnen sind hierfür prädestiniert. Die von ihnen gelieferten Informationen haben eine deutlich höhere Bildauflösung. Außerdem können sie situativ eingesetzt und individuell gesteuert werden. In Sachen Genauigkeit nehmen sie es mittlerweile selbst mit Laserscannern auf. Drohnen beschaffen Informationen in Minuten oder Stunden, wofür der Mensch Tage oder Wochen benötigt inklusive einer aufwändigen Vorbereitungszeit, die bei Drohnen meistens entfallen. Fotografie war die erste Killer-App für Multikopter. Danach folgten Videoüberwachung und Kartierung. Drohnen sind gerade dabei, die „Lücke“ zwischen Flug- oder Satellitenaufnahmen und der Straßenperspektive zu füllen. Sie digitalisieren den Planeten in hoher Auflösung und beinahe in Echtzeit. Die Drohnenwirtschaft gilt als disruptiv, da sie herkömmliche Anwendungen, Methoden und Geschäftsmodelle überflüssig macht und völlig neue Möglichkeiten aufzeigt.
Das kommerzielle Potenzial wird erst sichtbar, nachdem Drohnen mit spezieller Software als integraler Bestandteil von Plattformen ausgestattet wurden. Wie bereits in der App-Ökonomie wird es zukünftig auch Applikationen für Drohnen geben, deren Möglichkeiten heute noch nicht vorstellbar sind. Experten sprechen bereits heute vom „Internet der fliegenden Dinge“. Die rasante Entwicklung der Smartphones machte eine Vielzahl intelligenter Technologien, Sensoren, schnelle Prozessoren, Kameras, Breitbandanbindung bis hin zum GPS für jedermann zugänglich. Die Vielzahl unterschiedlicher und leistungsstarker Chips macht das Smartphone zu einem Supercomputer im Kleinformat. Und die Economies of Scale führte dazu, dass diese Komponenten erschwinglich und für den Massenmarkt tauglich wurden.
DRaaS (Disaster Recovery as a Service)
D wie DRaaS (Disaster Recovery as a Service)
DRaaS ist ein Spezialfall von Disaster Recovery (deutsch Notfallwiederherstellung). Wie der Zusatz „as a Service“ ausdrückt, wird dieses weiterentwickelte Backup an einen spezialisierten Partner ausgegliedert. Disaster Recovery as a Service (DRaaS) ist ein integraler Bestandteil des Business Continuity Management (BCM) und beschreibt einen Managed IT-Service. Das BCM umfasst Pläne und Vorbereitungen für die Weiterführung der Geschäftsprozesse bei teilweisem oder komplettem Ausfall kritischer Systeme. Aufgabe der Disaster Recovery ist das planmäßige Wiederherstellen des normalen Betriebszustands. Schwerwiegende Störungen der Betriebssysteme können z. B. durch Strom-, Hardware- und Netzwerk-Ausfälle verursacht werden oder durch gezielte Angriffe gegen die IT-Sicherheit. Ursachen können vielschichtig sein, von Naturkatastrophen und Feuer bis zu menschlichen Fehlern, böswilligen Handlungen, Diebstahl von IT-Geräten oder Komponenten bis zu Datenträgern oder auch einer fehlerhaften Hard- oder Software.
Zu den drei hauptsächlichen Komponenten des BCP gehören High availability (HA), mit denen Kapazitäten und Prozesse bereitgestellt werden, welche einem Unternehmen beim Ausfall lokaler Systeme den Zugriff auf Daten und Anwendungen erlauben. Mit Continuous operations (CO) wird die Aufrechterhaltung des Betriebs während auftretender Störungen und geplanter Wartungsarbeiten sichergestellt. Disaster Recovery (DR) ist die Bereitstellung von Methoden, um ein komplettes IT-System beim Ausfall an anderer Stelle wiederaufbauen zu können.
Als Teil der Disaster Recovery-Strategie kommt heutzutage verstärkt die Cloud Disaster Recovery (Cloud-DR) zum Einsatz. Hierbei werden die zur Wiederherstellung betroffener Systeme notwendigen Daten in der Cloud gespeichert, anstatt auf physischen Massenspeichern vor Ort. Als Vorgabe für das Anlegen von Backups gilt seit langem die 3-2-1 Regel. Diese besagt, dass für alle Daten drei Versionen vorgehalten werden: das Original, plus zwei Kopien. Man spricht auch von der doppelten Redundanz. Dabei wird eine Kopie auf einem separaten Datenträger, jedoch in denselben Räumlichkeiten wie das Original aufbewahrt (On-site Backup). Die zweite Kopie wird an physisch entferntem Ort aufbewahrt (Off-site Backup). Bei Disaster Recovery as a Service steht die kontinuierliche Replikation der Geschäftsdaten und -systeme im Fokus. Dies geht über ein einfaches Daten-Backup hinaus und spiegelt komplette Ökosysteme. Dieses schließt sämtliche kritische Infrastruktur, Systeme, virtuelle Maschinen und Anwendungscontainer sowie Daten ein. In der Praxis haben sich zwei DRaaS-Ansätze bewährt: Das „Recovery Time Objective“ (RTO) und „Recovery Point Objective“ (RPO). Neben der Wiederherstellung betroffener Daten und Systeme enthalten professionelle DRaaS-Angebote häufig eine weitere essenzielle Funktion zur Aufrechterhaltung der Geschäftsprozesse: Mit Cloud-basierten „Failover Environments“ wird beim Ausfall oder schwerwiegenden Unterbrechungen ein Ersatzsystem eingeschaltet.
Dunning-Kruger-Effekt
D wie Dunning-Kruger-Effekt
Mit dem Dunning-Kruger-Effekt bezeichnet man die kognitive Verzerrung im Selbstverständnis inkompetenter Menschen, das eigene Wissen und Können zu überschätzen. Dieses Phänomen basiert auf der Unfähigkeit, sich selbst mittels Metakognition objektiv beurteilen zu können. Der Begriff geht auf eine Publikation der beiden US-amerikanischen Psychologieprofessoren David Dunning und Justin Kruger im Jahr 1999 zurück und beschreibt die 4 Phasen der Selbstüberschätzung. In ihrer Studie kamen Dunning und Kruger zu erstaunlichen Ergebnissen. Sie konnten anhand einer Vielzahl von Probanden belegen, dass Unwissenheit (Nichtwissen oder Halbwissen) oft zu mehr Selbstvertrauen führte als Wissen oder vereinfacht ausgedrückt: Je inkompetenter eine Person, desto größer ihr Selbstbewusstsein. Die Studie belegte, dass weniger kompetente Personen häufig dazu neigen, entweder ihre eigenen Fähigkeiten zu überschätzen, überlegene Fähigkeiten bei anderen nicht zu erkennen und/oder das Ausmaß ihrer eigenen Inkompetenz nicht richtig einzuschätzen. Dunning und Kruger befragten in ihrem Experiment Studenten der Cornell Universität in New York u. a. auch zu rein erfundenen Themen, die in der Wissenschaft nicht existieren. Als die Probanden darauf angesprochen wurden, behauptete fast die Hälfte über genügend Hintergrundwissen zu verfügen, um sich darüber eine Meinung bilden zu können. Dunning erklärte das Phänomen wie folgt: „Wenn man inkompetent ist, kann man nicht wissen, dass man inkompetent ist […]. Die Fähigkeiten, die Sie benötigen, um eine richtige Antwort zu geben, sind genau die Fähigkeiten, die Sie benötigen, um zu erkennen, was eine richtige Antwort ist.“ Inkompetenz und Ignoranz treten oftmals zusammen auf. Daher wird der Dunning-Kruger-Effekt auch als eine mögliche Erklärung für die Ignoranz gegenüber wissenschaftlichen Prozessen herangezogen. Schon Sokrates stellte in seiner Apologie mit den Worten „Ich weiß, dass ich nichts weiß“ klar, dass Weisheit mit dem Bewusstsein über das eigene Nichtwissen beginnt. Derartige Einsichten wird man von Betroffenen des Dunning-Kruger-Phänomens nicht hören. Sie sind selbstbewusst bis überheblich von ihrer intellektuellen Überlegenheit überzeugt und versuchen diese regelmäßig anderen gegenüber zu demonstrieren, womit sie in gleicher Regelmäßigkeit das Gegenteil erreichen.
Das Phänomen ist unter diversen Namen und in Ausprägungen bekannt. Im Zusammenhang mit dem Intelligenzquotienten spricht man auch vom Downing-Effekt oder aus dem Englischen „illusory superiority”. Der Dunning-Kruger-Effekt wurde an Nordamerikanern nachgewiesen und in zahlreichen Studien auch in Europa bestätigt. Aufgrund der kulturellen Unterschiede kann man dieses Phänomen allerdings nicht auf andere Regionen übertragen. Asiaten z. B. tendieren eher dazu, ihre Fähigkeiten zu unterschätzen und nehmen Unwissenheit und Misserfolge zum Anlass, sich zu verbessern.
Der entgegengesetzte Effekt wird als Hochstapler-Syndrom bezeichnet und kann als Extrapolation der von Dunning und Kruger untersuchten inversen Korrelation zwischen Kompetenz und Selbstwahrnehmung hin zu hohen Kompetenzen angesehen werden. Der Effekt beschreibt die Selbstwahrnehmung insbesondere sehr kompetenter Menschen, die der Meinung sind, den eigenen Erfolg nicht verdient zu haben.
Dynamic Capabilities
D wie Dynamic Capabilities
Dynamic Capabilities bilden die Klammer für widersprüchliche Vorstellungen, dass ein Unternehmen stabil genug ist, einen unverwechselbaren, ursprünglichen Wert zu liefern (Purpose) und gleichzeitig adaptiv genug ist, um sich agil zu verändern, wenn die äußeren Bedingungen dies erforderlich machen. Deshalb werden sie auch als Mikrofundamente und Fähigkeiten höherer Ordnung in der Evolution von Unternehmen bezeichnet. Dynamic Capabilities machen Unternehmen einzigartig und sind fast immer an originelle Geschäftsmodelle und -innovationen gebunden. Sie sind bei der digitalen Transformation die höchstrelevante und alles entscheidende Zukunftskompetenz von Unternehmen.
Dynamic Pricing
D wie Dynamic Pricing
Der Begriff Dynamic Pricing (auch Surge Pricing) beschreibt ein dynamisches Preismanagement und steht für eine Preisstrategie, bei der Unternehmen aufgrund der aktuellen Marktsituation den Preis für Produkte oder Dienstleistungen dynamisch anpassen. Diese Preisanpassung wird anhand von definierten Algorithmen automatisch berechnet, die sich permanent weiter entwickeln. Hierbei werden unterschiedliche Faktoren wie Angebot und Nachfrage, Wettbewerbspreise, verhaltenswissenschaftliche Aspekte sowie andere externe Faktoren wie z. B. Wetter, Feiertage usw. mit einbezogen. Eine besondere Form des dynamischen Pricing ist das Revenue Management.
Dynamic Pricing wird in unterschiedlichen Formen angewendet:
- Segmentierte Preisgestaltung bietet unterschiedliche Preise für verschiedene Kunden. Hierfür wurden vorab Kundensegmente gebildet (Buyer Personas).
- Zeitbasierte Preisgestaltung kommt zum Einsatz, wenn Kunden für die Bereitstellung bestimmter Angebote zu einem bestimmten Zeitpunkt (Wochenende, Feiertage, Randzeiten) bereit sind, einen höheren Preis zu zahlen.
- Preisgestaltung nach exogenen Marktbedingungen erfolgt auf Indikatoren, die häufig außerhalb der Branche liegen wie z. B. ein allgemeiner Anstieg von Rohstoffpreisen aus dem Weltmarkt, eine Verknappung von Ressourcen z. B. durch Krisen oder dgl.
- Spitzenpreise werden eingesetzt, um im Zeitraum der höchsten Nachfrage einen höheren Preis durchzusetzen.
Rule Engines bilden die Vorstufe zu intelligentem Pricing. Hierbei werden Preisanpassungen statisch und nicht selten manuell vorgenommen, z. B. in dem die Preise von Wettbewerbern beobachtet und situativ um einige Prozentpunkte angepasst werden. Diese Vorgehensweise folgt keinen intelligenten Regeln und eignet sich nicht für eine aktive und kontextbasierte Preisgestaltung. Außerdem stößt diese Form der Preisanpassung bei einer wachsenden Zahl von Wettbewerbern und größer werdenden Sortimenten, einem größer werdenden Radius des Einflussgebietes sowie zunehmender Geschwindigkeit von Marktveränderungen schnell an seine Grenzen.
E wie E-Business
E wie E-Business
E-Business (auch eBusiness) ist ein Oberbegriff und die Abkürzung für Electronic Business. Der Begriff wurde Mitte der 1990-er Jahre durch eine Werbekampagne von IBM populär. Er beschreibt die Nutzung von digitalen Informations- und Kommunikationstechnologien für elektronische und unternehmensübergreifende Geschäftsprozesse mit dem Ziel, elektronischen Mehrwert und Wertschöpfungsketten zu generieren. Information, Kommunikation und Transaktion stellen die zentralen Bausteine im Electronic Business dar und werden über digitale Netzwerke abgewickelt. Zum E-Business werden drei zentrale Plattformen gezählt: die elektronische Beschaffung (→E-Procurement), der Verkauf von Produkten und Dienstleistungen (→E-Shop) sowie die Ermöglichung des Handels über digitale Netzwerke (→E-Marketplace). Ergänzt werden diese Plattformen durch elektronische Kontaktnetzwerke (→E-Community) und elektronische Unternehmenskooperation (→E-Company). Potenziale, Möglichkeiten und Voraussetzungen des E-Business werden durch die Entwicklung der globalen digitalen Netze bzw. modernen Netzökonomie (→Net Economy) bestimmt. Die systematische Nutzung von Technologien zum Zwecke der Generierung, Sammlung und Analyse sowie gezielten Verwendung von Daten und Informationen war der Grundstein für die so genannte Informationsökonomie, in der Wettbewerbsfähigkeit und Differenzierung durch Daten- und Wissensüberlegenheit erreicht wird. Dieser auch als „Net Economy“ bezeichnete Teil des wirtschaftlichen Systems besteht nun parallel zur traditionellen „Real Economy“.
E-Business kann zwischen einer Vielzahl von Marktteilnehmern stattfinden: zwischen Unternehmen (B2B Business to Business) und Konsumenten (B2C Business to Consumer), zunehmend zwischen Unternehmen und Plattformen (B2P Business to Platform) oder auch Unternehmen über Plattformen zum Konsumenten (B2P2C Business to Platform to Consumer), die zum E-Commerce zählen. A2C (Administration to Consumer), A2B (Administration to Business) und A2A (Administration to Administration) zählen dagegen zum so genannten →E-Government, das ebenfalls ein Teilbereich des E-Business ist.
E-Business und →E-Commerce werden häufig synonym verwendet, wobei dies unzutreffend ist. Denn E-Commerce bezeichnet lediglich den Handel mit Produkten und Dienstleistungen speziell im Internet und ist deshalb nur ein Teilbereich des deutlich weiter gefassten E-Business.
E wie E-Commerce
Der Begriff E-Commerce (auch eCommerce) steht synonym für elektronischen Handel, Onlinehandel oder Internethandel und ist ein Teilbereich des →E-Business. Er beschreibt den Kauf und Verkauf von Waren oder Dienstleistungen und deren Bezahlung mithilfe elektronischer Informationstechnologien. Genau genommen steht der Begriff für den Prozess der elektronischen Abwicklung einer Markt-Transaktion über digitale Technologien. Die Bandbreite reicht von einer einfachen Funktechnologie (z. B. Bluetooth) bis hin zu hochkomplexen, auf →künstlicher Intelligenz (KI) basierenden Systemen. Neben Kommunikationstechnologien wie Internet kommen auch elektronische Datenbanken und Textverarbeitungssoftware zum Einsatz. Der Zahlungsverkehr wird über Onlinebanking abgewickelt und Chatbots übernehmen zunehmend die Interaktion mit dem Kunden und den Kundenservice nach der Transaktion. Infolgedessen entsteht eine weitverzweigte digitale Infrastruktur bzw. unter Einbindung der unterschiedlichen Kanäle und Formate ein digitales Ökosystem. Ein →E-Shop dient dabei als zentrale Verkaufsplattform.
Hauptgründe für den rasant wachsenden E-Commerce-Markt sind die Optimierung der Prozesse (Geschwindigkeit, Kostensenkung, Automation) sowie Umsatzwachstum durch Neukundengewinnung (neue Zielgruppen, Überwindung räumlicher Distanzen). Die Entwicklung geht vom einfachen Omnichannel- zum Multi- und Crosschannel-Marketing. Hierzu ist es wichtig, die unterschiedlichen Kanäle aufeinander abzustimmen, in die Marketingkommunikation einzubetten und die verschiedenen Touchpoints in der Kundenkommunikation auf die unterschiedlichen Zielgruppen auszurichten. Durch neue Technologien wie Mixed Reality (→Virtual Reality und →Augmented Reality) werden auch im E-Commerce immer öfter pseudoreale Einkaufserlebnisse simuliert.
Nachteile des E-Commerce sind der zunehmende Wettbewerb durch eine höhere Preistransparenz und eine fehlende persönliche Beratung bei erklärungsbedürftigen Produkten. Mit intelligenten Chatbots und technischen Konfiguratoren versuchen Unternehmen, dieses Problem zu lösen. Allerdings sind gerade im B2B-Bereich die Angebote noch nicht zufriedenstellend. Ein negativer Nebeneffekt des boomenden E-Commerce ist das Aussterben der stationären Einzelhändler, die zu einem veröden der Innenstädte beitragen.
Experten sind sich einig, dass der E-Commerce den stationären Handel nicht komplett verdrängen wird. Auch hybride Formate sind aktuell auf dem Vormarsch, da Innovationen im Zusammenspiel mit dem Internet der Dinge (IoT) einen nahtlosen Übergang zwischen online und offline ermöglichen. Beispielhaft sollen so genannte →Beacons genannt werden, mit denen diverse Daten vom analogen Point of Sales auf mobile Devices übertragen werden und somit Informationen und Angebote sichtbar machen.
E wie Edison-Prinzip
Das Edison-Prinzip ist eine Kreativitätstechnik zur Ideenfindung. Die nach dem Erfinder benannte Arbeitsmethode besteht aus sechs Schritten, nach denen Thomas Alva Edison seine Ideen systematisch entwickelte. Der kreative Mensch muss…
- die Erfolgschancen seiner Idee erkennen
- die Denkautobahn verlassen und neue Wege gehen
- die Inspirationen richtiggehend suchen
- Spannung erzeugen
- die Ideen und die Erkenntnisse ordnen und
- daraus den größtmöglichen Nutzen ziehen
E wie Elevator Pitch
Der Begriff Elevator Pitch (auch Elevator Speech oder Elevator Statement genannt) bezeichnet eine Methode für eine kurze Zusammenfassung einer Idee. Der Fokus liegt auf positiven Aspekten oder anders ausgedrückt: „Wie begeistert man in 60 Sekunden“. Es geht also darum, Jemand in kürzester Zeit für etwas zu begeistern. Dies war namensprägend und basiert auf dem Szenario, eine Person in einem Aufzug zu treffen und diese während der kurzen gemeinsamen Fahrt für eine Idee zu gewinnen. Studien haben ergeben, dass die Aufmerksamkeitsspanne von Top-Managern für neue Ideen zwischen 10 und 20 Sekunden liegt. Dem entsprechend müssen relevante Informationen komprimiert und argumentativ vermittelt werden und hierbei begeistern. Allerdings sollte ein Elevator Pitch nicht nur auf das extrem kurze Zeitfenster reduziert werden. Es geht auch um die Struktur und Dynamik, mit der ein gelungener Elevator Pitch aufgebaut wird. Hierzu orientiert man sich häufig an der →AIDA-Formel. Wurde die Idee in der kurzen Zeit überzeugend vorgestellt, wird das Gespräch weitergeführt oder ein Termin für ein weiterführendes Meeting vereinbart.
E wie Empathy Map
Die Empathy Map ist ein wirkungsvolles Tool, um sich in einen prototypischen Kunden oder eine potenzielle Zielgruppe hineinzuversetzen und die Gefühle und Gedanken sowie Wahrnehmung und Handlungen zu erfassen. Anders als beim Erstellen einer →Buyer Persona (oder Mindset Persona) spielen Daten bei der Empathy Map eine untergeordnete Rolle. Im Mittelpunkt steht die Empathie. Beide Methoden ergänzen sich und schaffen ein besseres Verständnis über die Emotionen und Motivation von Kunden und potenziellen Zielgruppen, um das eigene Angebot auf die Bedürfnisse ausrichten und optimieren bzw. Hindernisse und Herausforderungen rechtzeitig identifizieren zu können. Während früher die Empathy Map vorwiegend im Marketing eingesetzt wurde, gewinnt das Werkzeug zunehmend auch in der Produktentwicklung, im Produktmanagement, im Vertrieb oder im →Innovationsmanagement an Bedeutung, nachdem Kundenorientierung (Customer Centricity) zur Querschnittsfunktion in vielen Unternehmen wird. Das Template der Empathy Map besteht aus sechs Feldern: sehen, hören, sagen und handeln, denken und fühlen sowie Pains (Schmerzen, Probleme) und Gains (Bedürfnisse, Wünsche). Je mehr empirische Erkenntnisse im Business-Kontext vorliegen, umso wertvoller ist die Empathy Map. Die Informationen werden aus Kundenfeedback, explorativen Interviews, qualitativen Zufriedenheitsanalysen und/oder der Methode →Fly on the Wall gezogen.
E wie E-nnovation
Der Begriff E-nnovation steht für die Verknüpfung von Innovationen und ganzheitlichen Lösungen im E-Business, das weit mehr ist als nur ein E-Shop oder E-Commerce. E-nnovation setzt seinen Fokus auf die Verknüpfung von klassischer Produktnutzung mit digitalen Dienstleistungen durch mobile Multimediadienste zu einem ganzheitlichen, digitalen, skalierbaren und nachhaltigen Geschäftsmodell.
E wie Emotion Artificial Intelligence
→ Affective Computing
E wie Europäischer Innovationsrat (EIC)
Im Europäischen Innovationsrat (EIC = European Innovation Council) werden wichtige Instrumente zur Innovationsförderung vereinigt und Innovationen in den EU-Mitgliedsstaaten gezielt unterstützt. Zu den wichtigsten Instrumenten zur Innovationsförderung gehören drei sich ergänzende Programmlinien zur Überbrückung von Finanzierungslücken in der Entwicklung, Einführung und Skalierung von bahnbrechenden und disruptiven Ideen:
- EIC Pathfinder (Open/Challenge): Für exzellenzorientierte, risikobehaftete Projekte in einem frühen Entwicklungsstadium mit dem Ziel neue Wissenschafts- und Technologiefelder zu eröffnen und bahnbrechende Technologien aus dem Bereich Deep Tech zu fördern
- EIC Transition (Open/Challenge): Zur Validierung von vielversprechenden Technologien, Entwicklung eines Proof-of-Concept und Erstellung von nachhaltigen Businessplänen
- EIC Accelerator (Open/Challenge): Wachstumsfinanzierung für Innovationsprojekte und Maßnahmen zur Validierung und Implementierung sowie Scale-up
Die Förderinstrumente sind weitestgehend themenoffen gehalten und bieten Raum für interdisziplinäre Ideen. Neben technologischen können auch nicht-technologische Innovationen, wie z. B. soziale Innovationen oder Innovationen im Dienstleistungssektor, unterstützt werden.
E wie Europäisches Innovations- und Technologieinstitut (EIT)
Das Europäische Innovations- und Technologieinstitut (European Institute of Innovation and Technology, EIT) soll sich zum Aushängeschild europäischer Innovation entwickeln. Um die Innovationskraft und -kapazität der EU-Mitgliedsstaaten zu erhöhen, wurden die drei Wissensbereiche Bildung, Forschung und Innovation in eine Einheit integriert. Operationalisiert wird die Arbeit des EIT durch eine Reihe von Wissens- und Innovationsgemeinschaften (Knowledge and Innovation Communities, KICs). Hierbei handelt es sich um eine hochgradig integrierte öffentlich-private Partnerschaft, die herausragende Wirtschaftsunternehmen, Universitäten und Forschungsinstitute in Exzellenzzentren, so genannten „Co-Location Centres“, zusammenführt. Das oberste Ziel besteht darin, die Ergebnisse aus Wissenschaft und Forschung von der Idee zum Produkt, von der Werkstatt oder dem Labor in den Markt sowie von Studierenden zu Unternehmen zu überführen. Aktuelle Themenfelder sind Klimawandel und nachhaltige Energie, Informations- und Kommunikationstechnologien sowie Künstliche Intelligenz.
E-Business
E wie E-Business
E-Business (auch eBusiness) ist ein Oberbegriff und die Abkürzung für Electronic Business. Der Begriff wurde Mitte der 1990-er Jahre durch eine Werbekampagne von IBM populär. Er beschreibt die Nutzung von digitalen Informations- und Kommunikationstechnologien für elektronische und unternehmensübergreifende Geschäftsprozesse mit dem Ziel, elektronischen Mehrwert und Wertschöpfungsketten zu generieren. Information, Kommunikation und Transaktion stellen die zentralen Bausteine im Electronic Business dar und werden über digitale Netzwerke abgewickelt. Zum E-Business werden drei zentrale Plattformen gezählt: die elektronische Beschaffung (→E-Procurement), der Verkauf von Produkten und Dienstleistungen (→E-Shop) sowie die Ermöglichung des Handels über digitale Netzwerke (→E-Marketplace). Ergänzt werden diese Plattformen durch elektronische Kontaktnetzwerke (→E-Community) und elektronische Unternehmenskooperation (→E-Company). Potenziale, Möglichkeiten und Voraussetzungen des E-Business werden durch die Entwicklung der globalen digitalen Netze bzw. modernen Netzökonomie (→Net Economy) bestimmt. Die systematische Nutzung von Technologien zum Zwecke der Generierung, Sammlung und Analyse sowie gezielten Verwendung von Daten und Informationen war der Grundstein für die so genannte Informationsökonomie, in der Wettbewerbsfähigkeit und Differenzierung durch Daten- und Wissensüberlegenheit erreicht wird. Dieser auch als „Net Economy“ bezeichnete Teil des wirtschaftlichen Systems besteht nun parallel zur traditionellen „Real Economy“.
E-Business kann zwischen einer Vielzahl von Marktteilnehmern stattfinden: zwischen Unternehmen (B2B Business to Business) und Konsumenten (B2C Business to Consumer), zunehmend zwischen Unternehmen und Plattformen (B2P Business to Platform) oder auch Unternehmen über Plattformen zum Konsumenten (B2P2C Business to Platform to Consumer), die zum E-Commerce zählen. A2C (Administration to Consumer), A2B (Administration to Business) und A2A (Administration to Administration) zählen dagegen zum so genannten →E-Government, das ebenfalls ein Teilbereich des E-Business ist.
E-Business und →E-Commerce werden häufig synonym verwendet, wobei dies unzutreffend ist. Denn E-Commerce bezeichnet lediglich den Handel mit Produkten und Dienstleistungen speziell im Internet und ist deshalb nur ein Teilbereich des deutlich weiter gefassten E-Business.
E-Commerce
E wie E-Commerce
Der Begriff E-Commerce (auch eCommerce) steht synonym für elektronischen Handel, Onlinehandel oder Internethandel und ist ein Teilbereich des →E-Business. Er beschreibt den Kauf und Verkauf von Waren oder Dienstleistungen und deren Bezahlung mithilfe elektronischer Informationstechnologien. Genau genommen steht der Begriff für den Prozess der elektronischen Abwicklung einer Markt-Transaktion über digitale Technologien. Die Bandbreite reicht von einer einfachen Funktechnologie (z. B. Bluetooth) bis hin zu hochkomplexen, auf →künstlicher Intelligenz (KI) basierenden Systemen. Neben Kommunikationstechnologien wie Internet kommen auch elektronische Datenbanken und Textverarbeitungssoftware zum Einsatz. Der Zahlungsverkehr wird über Onlinebanking abgewickelt und Chatbots übernehmen zunehmend die Interaktion mit dem Kunden und den Kundenservice nach der Transaktion. Infolgedessen entsteht eine weitverzweigte digitale Infrastruktur bzw. unter Einbindung der unterschiedlichen Kanäle und Formate ein digitales Ökosystem. Ein →E-Shop dient dabei als zentrale Verkaufsplattform.
Hauptgründe für den rasant wachsenden E-Commerce-Markt sind die Optimierung der Prozesse (Geschwindigkeit, Kostensenkung, Automation) sowie Umsatzwachstum durch Neukundengewinnung (neue Zielgruppen, Überwindung räumlicher Distanzen). Die Entwicklung geht vom einfachen Omnichannel- zum Multi- und Crosschannel-Marketing. Hierzu ist es wichtig, die unterschiedlichen Kanäle aufeinander abzustimmen, in die Marketingkommunikation einzubetten und die verschiedenen Touchpoints in der Kundenkommunikation auf die unterschiedlichen Zielgruppen auszurichten. Durch neue Technologien wie Mixed Reality (→Virtual Reality und →Augmented Reality) werden auch im E-Commerce immer öfter pseudoreale Einkaufserlebnisse simuliert.
Nachteile des E-Commerce sind der zunehmende Wettbewerb durch eine höhere Preistransparenz und eine fehlende persönliche Beratung bei erklärungsbedürftigen Produkten. Mit intelligenten Chatbots und technischen Konfiguratoren versuchen Unternehmen, dieses Problem zu lösen. Allerdings sind gerade im B2B-Bereich die Angebote noch nicht zufriedenstellend. Ein negativer Nebeneffekt des boomenden E-Commerce ist das Aussterben der stationären Einzelhändler, die zu einem veröden der Innenstädte beitragen.
Experten sind sich einig, dass der E-Commerce den stationären Handel nicht komplett verdrängen wird. Auch hybride Formate sind aktuell auf dem Vormarsch, da Innovationen im Zusammenspiel mit dem Internet der Dinge (IoT) einen nahtlosen Übergang zwischen online und offline ermöglichen. Beispielhaft sollen so genannte →Beacons genannt werden, mit denen diverse Daten vom analogen Point of Sales auf mobile Devices übertragen werden und somit Informationen und Angebote sichtbar machen.
Edison-Prinzip
E wie Edison-Prinzip
Das Edison-Prinzip ist eine Kreativitätstechnik zur Ideenfindung. Die nach dem Erfinder benannte Arbeitsmethode besteht aus sechs Schritten, nach denen Thomas Alva Edison seine Ideen systematisch entwickelte. Der kreative Mensch muss…
- die Erfolgschancen seiner Idee erkennen
- die Denkautobahn verlassen und neue Wege gehen
- die Inspirationen richtiggehend suchen
- Spannung erzeugen
- die Ideen und die Erkenntnisse ordnen und
- daraus den größtmöglichen Nutzen ziehen
Elevator Pitch
E wie Elevator Pitch
Der Begriff Elevator Pitch (auch Elevator Speech oder Elevator Statement genannt) bezeichnet eine Methode für eine kurze Zusammenfassung einer Idee. Der Fokus liegt auf positiven Aspekten oder anders ausgedrückt: „Wie begeistert man in 60 Sekunden“. Es geht also darum, Jemand in kürzester Zeit für etwas zu begeistern. Dies war namensprägend und basiert auf dem Szenario, eine Person in einem Aufzug zu treffen und diese während der kurzen gemeinsamen Fahrt für eine Idee zu gewinnen. Studien haben ergeben, dass die Aufmerksamkeitsspanne von Top-Managern für neue Ideen zwischen 10 und 20 Sekunden liegt. Dem entsprechend müssen relevante Informationen komprimiert und argumentativ vermittelt werden und hierbei begeistern. Allerdings sollte ein Elevator Pitch nicht nur auf das extrem kurze Zeitfenster reduziert werden. Es geht auch um die Struktur und Dynamik, mit der ein gelungener Elevator Pitch aufgebaut wird. Hierzu orientiert man sich häufig an der →AIDA-Formel. Wurde die Idee in der kurzen Zeit überzeugend vorgestellt, wird das Gespräch weitergeführt oder ein Termin für ein weiterführendes Meeting vereinbart.
Empathy Map
E wie Empathy Map
Die Empathy Map ist ein wirkungsvolles Tool, um sich in einen prototypischen Kunden oder eine potenzielle Zielgruppe hineinzuversetzen und die Gefühle und Gedanken sowie Wahrnehmung und Handlungen zu erfassen. Anders als beim Erstellen einer →Buyer Persona (oder Mindset Persona) spielen Daten bei der Empathy Map eine untergeordnete Rolle. Im Mittelpunkt steht die Empathie. Beide Methoden ergänzen sich und schaffen ein besseres Verständnis über die Emotionen und Motivation von Kunden und potenziellen Zielgruppen, um das eigene Angebot auf die Bedürfnisse ausrichten und optimieren bzw. Hindernisse und Herausforderungen rechtzeitig identifizieren zu können. Während früher die Empathy Map vorwiegend im Marketing eingesetzt wurde, gewinnt das Werkzeug zunehmend auch in der Produktentwicklung, im Produktmanagement, im Vertrieb oder im →Innovationsmanagement an Bedeutung, nachdem Kundenorientierung (Customer Centricity) zur Querschnittsfunktion in vielen Unternehmen wird. Das Template der Empathy Map besteht aus sechs Feldern: sehen, hören, sagen und handeln, denken und fühlen sowie Pains (Schmerzen, Probleme) und Gains (Bedürfnisse, Wünsche). Je mehr empirische Erkenntnisse im Business-Kontext vorliegen, umso wertvoller ist die Empathy Map. Die Informationen werden aus Kundenfeedback, explorativen Interviews, qualitativen Zufriedenheitsanalysen und/oder der Methode →Fly on the Wall gezogen.
E-nnovation
E wie E-nnovation
Der Begriff E-nnovation steht für die Verknüpfung von Innovationen und ganzheitlichen Lösungen im E-Business, das weit mehr ist als nur ein E-Shop oder E-Commerce. E-nnovation setzt seinen Fokus auf die Verknüpfung von klassischer Produktnutzung mit digitalen Dienstleistungen durch mobile Multimediadienste zu einem ganzheitlichen, digitalen, skalierbaren und nachhaltigen Geschäftsmodell.
Emotion Artificial Intelligence
E wie Emotion Artificial Intelligence
→ Affective Computing
Europäischer Innovationsrat (EIC)
E wie Europäischer Innovationsrat (EIC)
Im Europäischen Innovationsrat (EIC = European Innovation Council) werden wichtige Instrumente zur Innovationsförderung vereinigt und Innovationen in den EU-Mitgliedsstaaten gezielt unterstützt. Zu den wichtigsten Instrumenten zur Innovationsförderung gehören drei sich ergänzende Programmlinien zur Überbrückung von Finanzierungslücken in der Entwicklung, Einführung und Skalierung von bahnbrechenden und disruptiven Ideen:
- EIC Pathfinder (Open/Challenge): Für exzellenzorientierte, risikobehaftete Projekte in einem frühen Entwicklungsstadium mit dem Ziel neue Wissenschafts- und Technologiefelder zu eröffnen und bahnbrechende Technologien aus dem Bereich Deep Tech zu fördern
- EIC Transition (Open/Challenge): Zur Validierung von vielversprechenden Technologien, Entwicklung eines Proof-of-Concept und Erstellung von nachhaltigen Businessplänen
- EIC Accelerator (Open/Challenge): Wachstumsfinanzierung für Innovationsprojekte und Maßnahmen zur Validierung und Implementierung sowie Scale-up
Die Förderinstrumente sind weitestgehend themenoffen gehalten und bieten Raum für interdisziplinäre Ideen. Neben technologischen können auch nicht-technologische Innovationen, wie z. B. soziale Innovationen oder Innovationen im Dienstleistungssektor, unterstützt werden.
Europäisches Innovations- und Technologieinstitut (EIT)
E wie Europäisches Innovations- und Technologieinstitut (EIT)
Das Europäische Innovations- und Technologieinstitut (European Institute of Innovation and Technology, EIT) soll sich zum Aushängeschild europäischer Innovation entwickeln. Um die Innovationskraft und -kapazität der EU-Mitgliedsstaaten zu erhöhen, wurden die drei Wissensbereiche Bildung, Forschung und Innovation in eine Einheit integriert. Operationalisiert wird die Arbeit des EIT durch eine Reihe von Wissens- und Innovationsgemeinschaften (Knowledge and Innovation Communities, KICs). Hierbei handelt es sich um eine hochgradig integrierte öffentlich-private Partnerschaft, die herausragende Wirtschaftsunternehmen, Universitäten und Forschungsinstitute in Exzellenzzentren, so genannten „Co-Location Centres“, zusammenführt. Das oberste Ziel besteht darin, die Ergebnisse aus Wissenschaft und Forschung von der Idee zum Produkt, von der Werkstatt oder dem Labor in den Markt sowie von Studierenden zu Unternehmen zu überführen. Aktuelle Themenfelder sind Klimawandel und nachhaltige Energie, Informations- und Kommunikationstechnologien sowie Künstliche Intelligenz.
F wie Facial Recognition
F wie Facial Recognition
Facial Recognition (Gesichtserkennung) ist in den letzten Jahren zunehmend in den Fokus der digitalen Innovationen gerückt. Die zugrundeliegende Technologie gibt es seit vielen Jahren und wird längst angewendet wie z. B. im Smartphone oder digitalen Personalausweis. Während einige Länder über diese Anwendungen versuchen, die Kriminalitätsbekämpfung effizienter zu gestalten, nutzen große Internetanbieter wie Facebook, Microsoft, Google oder Amazon diese Technologie, um ihre Nutzer schneller und effektiver zu erkennen und über künstliche Intelligenz zu analysieren. Vor dem Aufkommen von künstlicher Intelligenz funktionierte die Gesichtserkennung ähnlich wie bei anderen „biometrischen“ Diensten zur Identifizierung von Stimme, Iris oder Fingerabdruck. Ein Computer analysiert ein eingegebenes Bild, identifiziert so genannte Marker und vergleicht diese spezifischen Punkte mit Aspekten auf Vergleichsfotos. Die Software ersetzt die Bildquelle durch eine Version, die für die Gesichtserkennung relevante Merkmale hervorhebt. Bei komplexeren Farbsystemen werden dabei alle Pixel im Vergleich zu den umliegenden Details verglichen, um eine Gemeinsamkeit zu entdecken. Einfache Analyseprogramme stießen allerdings an ihre Grenzen. Der wirkliche Durchbruch gelang erst durch den Einsatz von künstliche Intelligenz und speziell dem Deep Learning. Diese liefern nicht nur präzisere Ergebnisse, sondern können durch gezieltes Training auch spezielle Merkmale wie z. B. Alter und Geschlecht sowie Gemütszustand interpretieren. Facial Recognition wird in den nächsten Jahren an Bedeutung zunehmen. Von Anwendungen im digitalen Marketing sowie zur Identifizierung von Personen z. B. im Reiseverkehr bietet es zudem viele Potenziale im Smart Home Bereich, wo die intelligenten Geräte den jeweiligen Nutzer erkennen und individuelle Angebote erstellen können.
F wie Fassade der Zukunft
Die Fassade der Zukunft ist untrennbar mit den →Megatrends Nachhaltigkeit, Urbanisierung, demografischer Wandel und Digitalisierung verbunden. Die Prognosen in Bezug auf den Klimawandel und die gesellschaftspolitische Zielsetzung eines Gebäudestandards „nahezu Nullenergie“ diktieren die Anforderungen zukünftiger Produktentwicklungen als funktionale Komponenten intelligenter Fassadensysteme. Diese werden in den nächsten Jahrzehnten durch eine aktive wie passive Wirkungsweise sowohl das Innenraum- als auch das Außenklima beeinflussen können. Schwerpunkte liegen in den Bereichen Luftqualität, Schallschutz, hygrothermische Behaglichkeit, visueller Komfort, energetische Autonomie und Mobilität sowie einen Komfort in der Gebäudesteuerung. Die Fassade der Zukunft wird mehrschichtig und multifunktional sein, um ein adaptives Fassadendesign zu ermöglichen. Elektronisch schaltbare Gläser werden mechanische Verschattungssysteme substituieren. Die Verglasungseinheiten werden in der Lage sein, zusätzlich zu beleuchten, während des Tages wie in der Nacht, Außenlärm zu streuen und zu absorbieren. Vakuumverglasungen, OLEDs und LCD-Systeme werden ebenso zentrale Bauteile der Gebäudehülle werden wie opake Gebäudeoberflächen, die adaptiv auf das Außenklima reagieren können. Außerdem wird die Fassade der Zukunft in der Lage sein, Außenluft von NOx, VOC, CO2 und Feinstäuben zu reinigen und über Methoden wie die Verdunstungskühlung zu konditionieren. Sie wird Energie erzeugen, speichern und verteilen – thermisch wie elektrisch. Die Fassade der Zukunft wird ein aktives Bauteil werden und somit eine Schnittstelle zwischen den Komfortansprüchen innerhalb und außerhalb des Gebäudes.
Hintergrund dieser Zukunftsbeschreibung sind Prognosen über die Entwicklung von Treibhausgasemissionen und dem damit verbundenen Temperaturanstieg sowie Simulationen über die demografische Entwicklung. Man geht heute davon aus, dass im Jahr 2050 die Weltbevölkerung auf 10 Milliarden anwachsen wird, von denen Zweidrittel der Menschen im urbanen Umfeld leben und arbeiten werden. Dieser urbane Kontext liefert essenzielle Fragen und Herausforderungen für das zukünftige Design von Gebäudehüllen. Denn bereits heutige „Megacities“ zeigen die Schwierigkeiten auf, die zu überwinden gilt. Hierzu gehören in erster Linie die Verschmutzung der Umgebungsluft durch CO2, Nox, VOC, Feinstaub, Lärmbelastung durch Verkehr, der Hitzeinsel-Effekt oder tageslichtarme Straßenschluchten, verursacht durch dichte Bebauung und hohe Gebäude. Diese äußeren Einflussfaktoren addieren sich zu weiteren menschlichen Bedürfnissen wie Kontakt zur Umwelt (Sicht, Geruch, Geräusch), Luft- und Geräuschqualität, Behaglichkeit und Wohngesundheit, visueller und Nutzkomfort, energetische Autonomie oder Schutz natürlicher Ressourcen.
F wie Fehlerkultur
Der Begriff Fehlerkultur ist zu einem Kernelement im Zusammenhang mit der Transformation von →Unternehmenskultur und/oder dem Aufbau einer →Innovationskultur geworden. Der Begriff kommt aus den Sozial- und Wirtschaftswissenschaften und bezeichnet die Art und Weise, wie die Gesellschaft, verschiedene Kulturen, soziale Systeme und Organisationen mit Fehlern, Risiken aus möglichen Fehlern sowie Folgen und Auswirkungen aus Fehlern umgehen. Immer, wenn Menschen zusammen arbeiten und miteinander kooperieren, entstehen Fehler. Unter Fehlerkultur versteht man einen bestimmten Umgang mit Fehlern. Hierzu gehört die Art und Weise, wie Fehler betrachtet, bewertet und mit ihnen umgegangen wird. Analytikern, Kommunikations- oder Verhaltensforschern, Pädagogen und Psychologen geht es bei der Fehlerkultur in erster Linie um einen konstruktiven Umgang. Hierzu gehören
- das Annehmen von Fehlern,
- das Lernen aus Fehlern,
- der konstruktive Umgang mit Fehlern,
- der lösungsorientierte Ansatz aus Fehlern und
- das Vermeiden von Fehlern.
Fehler im Sinne von Abweichungen vom Soll-Zustand sind als Katalysatoren wichtig für eine ständige Optimierung. Darüber hinaus dient der positive Umgang mit Fehlern als Ursache für Verbesserungen als wichtiger Indikator für eine konstruktive Fehlerkultur. Man spricht in dem Zusammenhang auch von einer Feedback-Kultur oder einem Fehlermanagement. Beide Begriffe werden häufig synonym verwendet, was nicht ganz korrekt ist. Im Gegensatz zur Fehlerkultur, setzt sich das Fehlermanagement nicht mit der Art und Weise im Umgang mit Fehlern auseinander, sondern steuert gezielt Aktivitäten und Maßnahmen, um Fehler zu vermeiden oder die richtigen Schlussfolgerungen daraus zu ziehen. Schwerpunkt im Fehlermanagement ist die Anwendung bestimmter Methoden.
Die Fehlerkultur hat nicht nur ihre Bedeutung im operativen Qualitätsmanagement oder im Risikomanagement, sondern auch im strategischen Ideen- und Innovationsmanagement. Darüber hinaus ist die Fehlerkultur zu einem der wichtigsten Bausteine in der Unternehmenskultur geworden und Treiber in der Diskussion um Lernende Organisationen. Sie gehört zu den weichen Faktoren und hat erheblichen Einfluss auf die Leistungsfähigkeit und somit den Erfolg oder Misserfolg eines Unternehmens. Sie steuert als nicht greifbare Kennziffer u. a. die Produktivität und Wettbewerbsfähigkeit, die Qualitätsstandards, das Innovationspotenzial sowie Leadership und Motivation der Mitarbeiter. Darüber hinaus bestimmt sie die Identität und Loyalität sowie Authentizität einer Organisation.
Insbesondere der Erfolg asiatischer Unternehmen und der vor allem in Japan gelebten Fehlerkultur führte in den 1990-er Jahren zu einer kritischen Überprüfung des in westlichen Unternehmen üblichen Umgang mit Fehlern. Westliche Unternehmen mit ihrem Drang nach Perfektionismus sind vom Taylorismus geprägt; der Fokus liegt auf der Fehlervermeidung und der Ursachenanalyse. Nicht selten reduzierte sich die Analyse der Fehlerursache auf den Verursacher, verbunden mit einer Schuldfrage. Mehrere Studien belegen, dass Angst und Druck kritische Faktoren sind, mit denen Fehler begünstigt werden. Gleichzeitig ist belegt, dass erfolgreiche Unternehmen mit einer hohen Innovationskraft eine Unternehmenskultur entwickelt haben, in der die Mitarbeiter vor allem eine hohe Fehlerkompetenz aufweisen. Diese besteht darin, dass ein spezifischer Methodenkoffer von Fehlerstrategien zur Verfügung steht, der funktions- und kontextbezogen angewendet wird. Die Offenheit und Toleranz gegenüber Fehlern, eine hohe Transparenz über die Ursachen, das Lernen und das Antizipieren aus Fehlern sowie eine wertschätzende Kommunikation bis hin zu einer Risikobereitschaft gegenüber Fehlern wird als ein wesentlicher Wettbewerbsfaktor wahrgenommen und dient zur Freisetzung von Wertschöpfung im Unternehmen. Grundlage hierfür ist eine offene, aktive und sanktionsfreie Fehlerkultur, in der Fehler als positive Lern- und Wachstumschance erkannt und Mitarbeiter motiviert werden, Fehler angstfrei zuzugeben. Ausgenommen hiervon sind Fehler, die vorsätzlich oder aus Sorglosigkeit oder zum wiederholten Mal begangen werden. Fehler dürfen in dem Zusammenhang nicht mit Fehlverhalten gleichgesetzt werden.
F wie First Mover Advantage
Für die Positionierung eines neuen Produktes oder einer neuen Dienstleistung in einem bestehenden Markt sowie einer erfolgreichen Marktstrategie muss auch das richtige Timing für den Markteintritt festgelegt werden. Hierbei sind eine Vielzahl von Einflussfaktoren wie z. B. das Marktumfeld, der Reifegrad der Branche bzw. des Marktsegmentes, die eigene Marktstellung und Wettbewerbssituation und vieles mehr zu berücksichtigen. Denn nicht immer ist es vorteilhaft, als Erster einen Markt zu besetzen und ihn aufzubauen. Eine allgemeingültige Aussage lässt sich darüber nicht treffen, da es sowohl gute Argumente für als auch gegen einen frühen bzw. späten Markteintritt gibt.
Die Vorteile eines zeitbezogenen Wettbewerbsvorsprungs werden mit dem Begriff des First Mover Advantage beschrieben. Dieser umfasst nicht nur die Alleinstellung für einen begrenzten Zeitraum und den damit verbundenen Vorteilen wie z. B. der Neukundengewinnung, Umsatzsteigerung und Gewinnoptimierung, Steigerung der Marktanteile sowie Synergien oder Imagegewinn, sondern auch den Aufbau von Markteintrittsbarrieren sowie dem Setzen von Standards und/oder Qualitätsmaßstäben. Dadurch können Wettbewerbsbedingungen für Late Entrants fixiert werden. Optimal ist, wenn der First Mover seinen Wettbewerbsvorsprung auf einer System- oder Technologieführerschaft aufbaut. Dies gelingt in der Regel entweder aus dem Modell der Erfahrungskurve, aus gewerblichen Schutzrechten oder der stetigen Investition in Forschung und Entwicklung. Im Gegensatz zur Entwicklung neuer Technologien besteht auch die Möglichkeit, sich frühzeitig Schlüsselressourcen zu sichern. Dies können Rohstoffe, Technologien, Lieferketten oder auch Vertriebskanäle und dgl. sein. Der First Mover nutzt diese Phase zum Aufbau einer starken Marktposition. Aus ihr resultieren neben erheblichen Vorteilen und Chancen auch nicht zu vernachlässigende Nachteile und Risiken für ein Unternehmen. Schließlich muss der Markt erschlossen und entwickelt werden und in vielen Bereichen Aufbauarbeit geleistet werden.
F wie First Mover Disadvantage
Aus einem →First Mover Advantage kann ein First Mover Disadvantage oder ein Late Mover Advantage werden. Dies passiert, wenn ein Wettbewerbsvorsprung z. B. durch ein neues Produkt oder einer neuen Dienstleistung nicht konsequent auf- und ausgebaut wird oder wenn es anderen Unternehmen gelingt, die Markteintrittsbarrieren des First Movers schnell zu überwinden und den Markt anschließend effektiver und effizienter zu bearbeiten. Gleiches gilt, wenn ein anderes Unternehmen zu einem späteren Zeitpunkt ein alternatives Produkt mit einer besseren Performance anbietet, z. B. weil das Neuprodukt des First Mover nicht ausgereift ist. Nachfolgende Unternehmen profitieren u. a. von den hohen Entwicklungs-, Marketing- und Vertriebsaufwendungen des First Movers, die dieser in die Markterschließung und den Marktaufbau investiert. In der Regel konzentrieren sich Verfolger darauf, die Vorteile ihres eigenen Produktes herauszustellen und den First Mover z. B. mit einer aggressiven Preisstrategie zu unterbieten und somit den späteren Markteintritt zu kompensieren.
F wie 5C-Net-Business-Modell
Mit dem Aufkommen des →E-Business Anfang der 2000-er wurden vier grundlegende Typen von digitalen Geschäftsmodellen identifiziert. Das so genannte 4C-Net-Business-Modell umfasste die Elemente
- Content (Bereitstellung und Auswertung von Inhalten auf einer eigenen Plattform)
- Commerce (umfasst alle Phasen eines elektronischen Kaufabschlusses inklusive der Abwicklung von Geschäftstransaktionen)
- Context (Klassifizierung und Systematisierung von verfügbaren Informationen und Daten)
- Connection (kommerzieller, technischer oder kommunikativer Informationsaustausch in Netzwerken oder der Cloud).
Zirka zehn Jahre später wurden diese 4 C’s noch durch das Element Coordination ergänzt. Darunter fällt der Termin-, Daten- und Informationsaustausch sowie die kollaborative Zusammenarbeit in Teams oder ganzen Organisationen. Diese fünf Geschäftsmodelltypen werden als 5C-Net-Business-Modell bezeichnet. Ein Geschäftsmodell lässt sich gemäß →Business Modell Canvas in strategische Partner, Schlüsselaktivität, Schlüsselressourcen, Wertangebot, Kundenbeziehung, Absatzkanäle, Kundensegmente, Kostenstruktur und Einnahmequellen unterscheiden.
F wie 5-Human-Faktor-Methode
Die Five-Human-Factors-Methode wird in der Analysephase von Innovationsprojekten genutzt, um die physischen, kognitiven, sozialen, kulturellen und emotionalen Faktoren von Zielgruppen innerhalb der Customer Journey zu studieren. Wenn diese fünf Faktoren in einer strukturierten Map erfasst und detailliert ausgewertet und bewertet werden, bekommen Teams ein zielführendes, tiefes und sehr detailliertes Kundenverständnis. Durch diese holistische Beobachtung steigt die Wahrscheinlichkeit, ungelöste Probleme und unbefriedigte Bedürfnisse von Kunden zu erkennen. Im Endeffekt zerlegt diese Methode zunächst die Customer Journey in seine einzelnen Bestandteile, um diese besser zu verstehen und anschließend wieder zusammen zu fügen, um Zusammenhänge zwischen Ursache und Wirkung besser zu verstehen.
F wie Flow-Team-Methode
Die Flow-Team-Methode ist eine Makromethode in der Kreativitätstechnik und beruht auf Erkenntnissen der System-Theorie und der Chaos-Forschung. Entwickelt wurde die Methodik vom schweizer Physiker und Unternehmensberater Martin Gerber sowie amerikanischen Wissenschaftlern. Die Flow-Theorie selbst wurde von dem Glücksforscher Mihaly Csikszentmihalyi geprägt und bezeichnet das als glücklich empfundene Gefühl, wenn man in einer Tätigkeit gedanklich völlig vertieft ist und darin aufgeht. Im Gegenteil zum Stress bei Überforderung erlebt man keine inneren Widerstände, sondern befindet sich im Fluss (englisch: Flow). In diesem Glückszustand befinden sich Gedanken, Handlungen und Emotionen im Einklang. Die Flow-Team-Methode nutzt diese Erkenntnisse und fördert eine erfolgreiche Teamarbeit, schafft Rahmenbedingungen für anspruchsvolle Leistungsanforderungen, baut einen Leistungsethos auf, lässt Freiraum für Selbstverantwortung und ermöglicht vor allem Spaß an und durch Leistung. Außerdem dient sie der Selbstorganisation in komplexen Organisationen und/oder Projekten und unterstützt als Arbeitsprinzip die effiziente Entwicklung von Organisationseinheiten. In erster Linie aktiviert die Flow-Team-Methode die kollektive Intelligenz innerhalb einer Gruppe.
Ein wesentliches Merkmal der Methode ist die so genannte „Flow Blume“, die das Grundprinzip eines Wirkungsschemas darstellt. Insgesamt hat Martin Gerber zwölf Fokusbereiche benannt, die für die kreative Arbeit von Teams sinnvoll sind. Eine andere Form der Darstellung ist das Flow Dreieck, das die Flow-Theorie und mehrere psychologische Ansätze in einem einfach zugänglichen Dreieck in Verbindung setzt. Dieses verdeutlicht die unterschiedlichen Perspektiven verschiedener Personas, wenn man deren unterschiedliche Persönlichkeiten und Entwicklungspotentiale berücksichtigt: Die „Denker“ in einem Team möchten gerne so aktiv und erfolgreich sein wie Macher, die wiederum gerne so genussvoll und beliebt sein wollen wie die Fühler – und die wiederum wollen so klug und gelassen sein wie die Denker. Diese Vereinfachung verschiedener Typen in einem Team hilft diese und deren Talente und Stärken besser zu erkennen und für die Lösung des Problems zu nutzen.
F wie Forced-Relationship
Forced-Relationship ist eine Mikromethode in der Kreativtechnik und wird vorwiegend eingesetzt in der Entwicklung von Produkt- und Serviceinnovationen. Die intuitive Kreativtechnik zur Ideenfindung wurde durch den britischen Autor Charles S. Whiting entwickelt und arbeitet mit gezielten Reizwörtern in ungewohnten Begriffskombinationen, wodurch die Fantasie der Teilnehmer angeregt wird. Bei den Reizwörtern handelt es sich entweder um problemverwandte oder problementfernte Produkte, Verfahren oder Dienstleistungen. Eingesetzt wird die Forced-Relationship-Technik, um insbesondere bei unpräzisen Frage- und Problemstellungen neue Lösungsansätze zu finden.
F wie Frugale Innovationen
Eine frugale Innovation (abgeleitet von lat. frūgālis: „von den Früchten stammend“ im Sinne von karg oder genügsam) beschreibt eine Innovation, die im Gegensatz zum klassischen Innovationsgedanken keine echte Neuerung im Sinne von Differenzierung und Alleinstellung verfolgt, sondern eine vereinfachte und anwendungsorientierte Lösung bezeichnet. Frugale Innovationen sind Produkte im unteren und mittleren Preissegment, die im Nutzungskontext erschwinglich bzw. deutlich günstiger zu erwerben oder als Services zu nutzen sind. Mit ihnen werden neue und vor allem preissensible Segmente am Fuße der sozioökonomischen Pyramide erschlossen. Daher werden frugale Innovationen häufig mit Begriffen aus Entwicklungs- und Schwellenländern wie →Jugaad, →Grassroot Innovation und →Reverse Innovation in Verbindung gebracht. Anfänglich bezog sich der Begriff auf asiatische Länder wie China oder Indien, mittlerweile wird dieser auch für Afrika und Süd- sowie Lateinamerika verwendet.
Der Bedarf besteht vor allem an einfachen, funktionalen und erschwinglichen Produkten sowie bedarfsorientierten Services. Dies wird erreicht durch das Weglassen von überflüssigen und vom Kunden nicht genutzten Funktionen und Merkmalen. Frugale Innovationen sind deutlich günstiger als Vergleichsprodukte, einfach zu bedienen und anzuwenden, robust und wartungsarm sowie ressourcenschonend und nachhaltig. Typische Eigenschaften von frugalen Innovationen sind eine höhere Effizienz (das Produkt soll einen, relativ zum Preis, hohen Nutzen für den Kunden aufweisen), kapitalschonende Investitionen sowie die Erfüllung der Grundbedürfnisse (das Produkt soll nur zielgruppenspezifische und anwendungsorientierte Funktionen abdecken, diese aber auf einem mittleren bis hohen Niveau erfüllen). Deshalb geht es nicht um das einfache „Abspecken“ von Standardprodukten, sondern über spezifische Neuentwicklung von Produkten oder Lösungen mit Fokus auf die Kundenerfordernisse im jeweiligen Nutzungskontext. Diese gezielte Entwicklung frugaler Innovationen wird unter dem Begriff Frugal Engineering zusammengefasst. Deutsche Produkte sind häufig „over-engineered“ und rangieren im oberen Segment komplizierter High-Tech-Lösungen. Frugale Innovationen hingegen implizieren die Betrachtung des Bottom-of-the-pyramid, statt nur der High-End-Spitze. Dies verursacht ein komplettes Um- und Neudenken des Produktdesigns sowie eine Verschlankung aller Prozesse der Wertschöpfung. Neue Technologien begünstigen Frugal Engineering genauso wie Automatisierung oder additive Fertigung.
F wie Function as a Service (FaaS)
Der Begriff „Function as a Service“ (FaaS) ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Geschäftsprozesse durchzuführen. Gleichzeitig wird für deren Management keine eigene Infrastruktur benötigt. Diese wird vom Anbieter des Services bereitgestellt. Somit entfällt der damit verbundene Aufwand wie z. B. Wartungen oder regelmäßige Updates und dgl. Programmierer können sich komplett auf das Programmieren von Codes in Form der benötigten Applikationen und deren Anwendungen fokussieren. Dabei bezeichnet der Begriff „Funktion“ eine Softwarekomponente, die oft nur über Sekunden ausgeführt wird. Anwendungen können aus einer Funktion oder einer Vielzahl von Funktionen bestehen. Mobile Applikationen sowie Datenverarbeitung sind typische Anwendungen, selten ausgeführte Workloads und hoch volumige Transaktionen sind besonders präferiert für FaaS. Deren Entwicklung findet in so genannten Containern statt, die Verwaltung erfolgt komplett über eine hierfür bereitgestellte Plattform – üblicherweise in einer Cloud. Die Berechnung von FaaS-Lösungen erfolgt durch den Anbieter auf Basis der benötigten Rechenleistung und des genutzten Datenspeichers. Der Vorteil: wenn wenig Anfragen eintreffen, wird die Anwendung herunter skaliert und somit nur die tatsächlich angefallenen Ressourcen berechnet. Die Folge: Standby-Zeiten fallen somit nicht an.
Die Besonderheit bei FaaS besteht darin, dass dieser einer reaktiv ablaufenden Systematik folgt, die durch „Events“ gesteuert werden. Diese Events werden durch bestimmte Anlässe (z. B. dem Klick auf einen Button) ausgelöst, wodurch eine dafür festgelegte Funktion abgerufen wird und der Service wartet so lange, bis ein erneuter Anlass generiert wird. Grundlage für die Funktionsweise von FaaS ist, dass die Reaktion auf den Anlass direkt gestartet und ausgeführt wird.
Der Unterschied zwischen FaaS und →Software as a Service (SaaS) liegt zum einen im Umfang der Anwendungen. Während sich FaaS im Mikrokosmos der Ökosysteme bewegt und auf einfache Funktionen beschränkt ist, erhalten Nutzer mit Software as a Service umfangreiche Anwendungen. Zum anderen sind SaaS-Lösungen vom Funktionsumfang klar definiert, so dass Entwickler auf zusätzliche Funktionen keinen Einfluss nehmen können. Im Gegensatz dazu definieren und beeinflussen Entwickler bei FaaS-Lösungen die gewünschten Funktionen individuell nach den bestehenden Anforderungen.
F wie Future Model Canvas
Im Gegensatz zu anderen Methoden im modellgetriebenen Engineering beginnt Future Modeling zunächst mit einer proaktiven Zukunftsvision. Hierbei werden eine größtmögliche Auswahl möglicher Szenarien entwickelt und anschließend systematisch strukturiert und priorisiert. Eingesetzt wird hierzu ein Future Modeling Framework, das auch als Future Model Canvas bezeichnet wird. Dies beschreibt eine standardisierte und transparente Methode für die kurzfristige Umsetzung von Produktentwicklung und Innovationsprojekten, kann aber auch bei strategischen Entscheidungen eingesetzt werden. Das Framework kombiniert Elemente der herkömmlichen Prognostik und traditioneller Trendforschung mit agilen Methoden wie z. B. Design Thinking und Experience Design. Future Model Canvas ist eine wissenschaftlich fundierte Methodik für die Unternehmens- und Produktstrategie und besteht neben einem standardisierten Framework aus verschiedenen Tools und Moderationsmethoden.
Facial Recognition
F wie Facial Recognition
Facial Recognition (Gesichtserkennung) ist in den letzten Jahren zunehmend in den Fokus der digitalen Innovationen gerückt. Die zugrundeliegende Technologie gibt es seit vielen Jahren und wird längst angewendet wie z. B. im Smartphone oder digitalen Personalausweis. Während einige Länder über diese Anwendungen versuchen, die Kriminalitätsbekämpfung effizienter zu gestalten, nutzen große Internetanbieter wie Facebook, Microsoft, Google oder Amazon diese Technologie, um ihre Nutzer schneller und effektiver zu erkennen und über künstliche Intelligenz zu analysieren. Vor dem Aufkommen von künstlicher Intelligenz funktionierte die Gesichtserkennung ähnlich wie bei anderen „biometrischen“ Diensten zur Identifizierung von Stimme, Iris oder Fingerabdruck. Ein Computer analysiert ein eingegebenes Bild, identifiziert so genannte Marker und vergleicht diese spezifischen Punkte mit Aspekten auf Vergleichsfotos. Die Software ersetzt die Bildquelle durch eine Version, die für die Gesichtserkennung relevante Merkmale hervorhebt. Bei komplexeren Farbsystemen werden dabei alle Pixel im Vergleich zu den umliegenden Details verglichen, um eine Gemeinsamkeit zu entdecken. Einfache Analyseprogramme stießen allerdings an ihre Grenzen. Der wirkliche Durchbruch gelang erst durch den Einsatz von künstliche Intelligenz und speziell dem Deep Learning. Diese liefern nicht nur präzisere Ergebnisse, sondern können durch gezieltes Training auch spezielle Merkmale wie z. B. Alter und Geschlecht sowie Gemütszustand interpretieren. Facial Recognition wird in den nächsten Jahren an Bedeutung zunehmen. Von Anwendungen im digitalen Marketing sowie zur Identifizierung von Personen z. B. im Reiseverkehr bietet es zudem viele Potenziale im Smart Home Bereich, wo die intelligenten Geräte den jeweiligen Nutzer erkennen und individuelle Angebote erstellen können.
Fassade der Zukunft
F wie Fassade der Zukunft
Die Fassade der Zukunft ist untrennbar mit den →Megatrends Nachhaltigkeit, Urbanisierung, demografischer Wandel und Digitalisierung verbunden. Die Prognosen in Bezug auf den Klimawandel und die gesellschaftspolitische Zielsetzung eines Gebäudestandards „nahezu Nullenergie“ diktieren die Anforderungen zukünftiger Produktentwicklungen als funktionale Komponenten intelligenter Fassadensysteme. Diese werden in den nächsten Jahrzehnten durch eine aktive wie passive Wirkungsweise sowohl das Innenraum- als auch das Außenklima beeinflussen können. Schwerpunkte liegen in den Bereichen Luftqualität, Schallschutz, hygrothermische Behaglichkeit, visueller Komfort, energetische Autonomie und Mobilität sowie einen Komfort in der Gebäudesteuerung. Die Fassade der Zukunft wird mehrschichtig und multifunktional sein, um ein adaptives Fassadendesign zu ermöglichen. Elektronisch schaltbare Gläser werden mechanische Verschattungssysteme substituieren. Die Verglasungseinheiten werden in der Lage sein, zusätzlich zu beleuchten, während des Tages wie in der Nacht, Außenlärm zu streuen und zu absorbieren. Vakuumverglasungen, OLEDs und LCD-Systeme werden ebenso zentrale Bauteile der Gebäudehülle werden wie opake Gebäudeoberflächen, die adaptiv auf das Außenklima reagieren können. Außerdem wird die Fassade der Zukunft in der Lage sein, Außenluft von NOx, VOC, CO2 und Feinstäuben zu reinigen und über Methoden wie die Verdunstungskühlung zu konditionieren. Sie wird Energie erzeugen, speichern und verteilen – thermisch wie elektrisch. Die Fassade der Zukunft wird ein aktives Bauteil werden und somit eine Schnittstelle zwischen den Komfortansprüchen innerhalb und außerhalb des Gebäudes.
Hintergrund dieser Zukunftsbeschreibung sind Prognosen über die Entwicklung von Treibhausgasemissionen und dem damit verbundenen Temperaturanstieg sowie Simulationen über die demografische Entwicklung. Man geht heute davon aus, dass im Jahr 2050 die Weltbevölkerung auf 10 Milliarden anwachsen wird, von denen Zweidrittel der Menschen im urbanen Umfeld leben und arbeiten werden. Dieser urbane Kontext liefert essenzielle Fragen und Herausforderungen für das zukünftige Design von Gebäudehüllen. Denn bereits heutige „Megacities“ zeigen die Schwierigkeiten auf, die zu überwinden gilt. Hierzu gehören in erster Linie die Verschmutzung der Umgebungsluft durch CO2, Nox, VOC, Feinstaub, Lärmbelastung durch Verkehr, der Hitzeinsel-Effekt oder tageslichtarme Straßenschluchten, verursacht durch dichte Bebauung und hohe Gebäude. Diese äußeren Einflussfaktoren addieren sich zu weiteren menschlichen Bedürfnissen wie Kontakt zur Umwelt (Sicht, Geruch, Geräusch), Luft- und Geräuschqualität, Behaglichkeit und Wohngesundheit, visueller und Nutzkomfort, energetische Autonomie oder Schutz natürlicher Ressourcen.
Fehlerkultur
F wie Fehlerkultur
Der Begriff Fehlerkultur ist zu einem Kernelement im Zusammenhang mit der Transformation von →Unternehmenskultur und/oder dem Aufbau einer →Innovationskultur geworden. Der Begriff kommt aus den Sozial- und Wirtschaftswissenschaften und bezeichnet die Art und Weise, wie die Gesellschaft, verschiedene Kulturen, soziale Systeme und Organisationen mit Fehlern, Risiken aus möglichen Fehlern sowie Folgen und Auswirkungen aus Fehlern umgehen. Immer, wenn Menschen zusammen arbeiten und miteinander kooperieren, entstehen Fehler. Unter Fehlerkultur versteht man einen bestimmten Umgang mit Fehlern. Hierzu gehört die Art und Weise, wie Fehler betrachtet, bewertet und mit ihnen umgegangen wird. Analytikern, Kommunikations- oder Verhaltensforschern, Pädagogen und Psychologen geht es bei der Fehlerkultur in erster Linie um einen konstruktiven Umgang. Hierzu gehören
- das Annehmen von Fehlern,
- das Lernen aus Fehlern,
- der konstruktive Umgang mit Fehlern,
- der lösungsorientierte Ansatz aus Fehlern und
- das Vermeiden von Fehlern.
Fehler im Sinne von Abweichungen vom Soll-Zustand sind als Katalysatoren wichtig für eine ständige Optimierung. Darüber hinaus dient der positive Umgang mit Fehlern als Ursache für Verbesserungen als wichtiger Indikator für eine konstruktive Fehlerkultur. Man spricht in dem Zusammenhang auch von einer Feedback-Kultur oder einem Fehlermanagement. Beide Begriffe werden häufig synonym verwendet, was nicht ganz korrekt ist. Im Gegensatz zur Fehlerkultur, setzt sich das Fehlermanagement nicht mit der Art und Weise im Umgang mit Fehlern auseinander, sondern steuert gezielt Aktivitäten und Maßnahmen, um Fehler zu vermeiden oder die richtigen Schlussfolgerungen daraus zu ziehen. Schwerpunkt im Fehlermanagement ist die Anwendung bestimmter Methoden.
Die Fehlerkultur hat nicht nur ihre Bedeutung im operativen Qualitätsmanagement oder im Risikomanagement, sondern auch im strategischen Ideen- und Innovationsmanagement. Darüber hinaus ist die Fehlerkultur zu einem der wichtigsten Bausteine in der Unternehmenskultur geworden und Treiber in der Diskussion um Lernende Organisationen. Sie gehört zu den weichen Faktoren und hat erheblichen Einfluss auf die Leistungsfähigkeit und somit den Erfolg oder Misserfolg eines Unternehmens. Sie steuert als nicht greifbare Kennziffer u. a. die Produktivität und Wettbewerbsfähigkeit, die Qualitätsstandards, das Innovationspotenzial sowie Leadership und Motivation der Mitarbeiter. Darüber hinaus bestimmt sie die Identität und Loyalität sowie Authentizität einer Organisation.
Insbesondere der Erfolg asiatischer Unternehmen und der vor allem in Japan gelebten Fehlerkultur führte in den 1990-er Jahren zu einer kritischen Überprüfung des in westlichen Unternehmen üblichen Umgang mit Fehlern. Westliche Unternehmen mit ihrem Drang nach Perfektionismus sind vom Taylorismus geprägt; der Fokus liegt auf der Fehlervermeidung und der Ursachenanalyse. Nicht selten reduzierte sich die Analyse der Fehlerursache auf den Verursacher, verbunden mit einer Schuldfrage. Mehrere Studien belegen, dass Angst und Druck kritische Faktoren sind, mit denen Fehler begünstigt werden. Gleichzeitig ist belegt, dass erfolgreiche Unternehmen mit einer hohen Innovationskraft eine Unternehmenskultur entwickelt haben, in der die Mitarbeiter vor allem eine hohe Fehlerkompetenz aufweisen. Diese besteht darin, dass ein spezifischer Methodenkoffer von Fehlerstrategien zur Verfügung steht, der funktions- und kontextbezogen angewendet wird. Die Offenheit und Toleranz gegenüber Fehlern, eine hohe Transparenz über die Ursachen, das Lernen und das Antizipieren aus Fehlern sowie eine wertschätzende Kommunikation bis hin zu einer Risikobereitschaft gegenüber Fehlern wird als ein wesentlicher Wettbewerbsfaktor wahrgenommen und dient zur Freisetzung von Wertschöpfung im Unternehmen. Grundlage hierfür ist eine offene, aktive und sanktionsfreie Fehlerkultur, in der Fehler als positive Lern- und Wachstumschance erkannt und Mitarbeiter motiviert werden, Fehler angstfrei zuzugeben. Ausgenommen hiervon sind Fehler, die vorsätzlich oder aus Sorglosigkeit oder zum wiederholten Mal begangen werden. Fehler dürfen in dem Zusammenhang nicht mit Fehlverhalten gleichgesetzt werden.
First Mover Advantage
F wie First Mover Advantage
Für die Positionierung eines neuen Produktes oder einer neuen Dienstleistung in einem bestehenden Markt sowie einer erfolgreichen Marktstrategie muss auch das richtige Timing für den Markteintritt festgelegt werden. Hierbei sind eine Vielzahl von Einflussfaktoren wie z. B. das Marktumfeld, der Reifegrad der Branche bzw. des Marktsegmentes, die eigene Marktstellung und Wettbewerbssituation und vieles mehr zu berücksichtigen. Denn nicht immer ist es vorteilhaft, als Erster einen Markt zu besetzen und ihn aufzubauen. Eine allgemeingültige Aussage lässt sich darüber nicht treffen, da es sowohl gute Argumente für als auch gegen einen frühen bzw. späten Markteintritt gibt.
Die Vorteile eines zeitbezogenen Wettbewerbsvorsprungs werden mit dem Begriff des First Mover Advantage beschrieben. Dieser umfasst nicht nur die Alleinstellung für einen begrenzten Zeitraum und den damit verbundenen Vorteilen wie z. B. der Neukundengewinnung, Umsatzsteigerung und Gewinnoptimierung, Steigerung der Marktanteile sowie Synergien oder Imagegewinn, sondern auch den Aufbau von Markteintrittsbarrieren sowie dem Setzen von Standards und/oder Qualitätsmaßstäben. Dadurch können Wettbewerbsbedingungen für Late Entrants fixiert werden. Optimal ist, wenn der First Mover seinen Wettbewerbsvorsprung auf einer System- oder Technologieführerschaft aufbaut. Dies gelingt in der Regel entweder aus dem Modell der Erfahrungskurve, aus gewerblichen Schutzrechten oder der stetigen Investition in Forschung und Entwicklung. Im Gegensatz zur Entwicklung neuer Technologien besteht auch die Möglichkeit, sich frühzeitig Schlüsselressourcen zu sichern. Dies können Rohstoffe, Technologien, Lieferketten oder auch Vertriebskanäle und dgl. sein. Der First Mover nutzt diese Phase zum Aufbau einer starken Marktposition. Aus ihr resultieren neben erheblichen Vorteilen und Chancen auch nicht zu vernachlässigende Nachteile und Risiken für ein Unternehmen. Schließlich muss der Markt erschlossen und entwickelt werden und in vielen Bereichen Aufbauarbeit geleistet werden.
First Mover Disadvantage
F wie First Mover Disadvantage
Aus einem →First Mover Advantage kann ein First Mover Disadvantage oder ein Late Mover Advantage werden. Dies passiert, wenn ein Wettbewerbsvorsprung z. B. durch ein neues Produkt oder einer neuen Dienstleistung nicht konsequent auf- und ausgebaut wird oder wenn es anderen Unternehmen gelingt, die Markteintrittsbarrieren des First Movers schnell zu überwinden und den Markt anschließend effektiver und effizienter zu bearbeiten. Gleiches gilt, wenn ein anderes Unternehmen zu einem späteren Zeitpunkt ein alternatives Produkt mit einer besseren Performance anbietet, z. B. weil das Neuprodukt des First Mover nicht ausgereift ist. Nachfolgende Unternehmen profitieren u. a. von den hohen Entwicklungs-, Marketing- und Vertriebsaufwendungen des First Movers, die dieser in die Markterschließung und den Marktaufbau investiert. In der Regel konzentrieren sich Verfolger darauf, die Vorteile ihres eigenen Produktes herauszustellen und den First Mover z. B. mit einer aggressiven Preisstrategie zu unterbieten und somit den späteren Markteintritt zu kompensieren.
5C-Net-Business-Modell
F wie 5C-Net-Business-Modell
Mit dem Aufkommen des →E-Business Anfang der 2000-er wurden vier grundlegende Typen von digitalen Geschäftsmodellen identifiziert. Das so genannte 4C-Net-Business-Modell umfasste die Elemente
- Content (Bereitstellung und Auswertung von Inhalten auf einer eigenen Plattform)
- Commerce (umfasst alle Phasen eines elektronischen Kaufabschlusses inklusive der Abwicklung von Geschäftstransaktionen)
- Context (Klassifizierung und Systematisierung von verfügbaren Informationen und Daten)
- Connection (kommerzieller, technischer oder kommunikativer Informationsaustausch in Netzwerken oder der Cloud).
Zirka zehn Jahre später wurden diese 4 C’s noch durch das Element Coordination ergänzt. Darunter fällt der Termin-, Daten- und Informationsaustausch sowie die kollaborative Zusammenarbeit in Teams oder ganzen Organisationen. Diese fünf Geschäftsmodelltypen werden als 5C-Net-Business-Modell bezeichnet. Ein Geschäftsmodell lässt sich gemäß →Business Modell Canvas in strategische Partner, Schlüsselaktivität, Schlüsselressourcen, Wertangebot, Kundenbeziehung, Absatzkanäle, Kundensegmente, Kostenstruktur und Einnahmequellen unterscheiden.
5-Human-Faktor-Methode
F wie 5-Human-Faktor-Methode
Die Five-Human-Factors-Methode wird in der Analysephase von Innovationsprojekten genutzt, um die physischen, kognitiven, sozialen, kulturellen und emotionalen Faktoren von Zielgruppen innerhalb der Customer Journey zu studieren. Wenn diese fünf Faktoren in einer strukturierten Map erfasst und detailliert ausgewertet und bewertet werden, bekommen Teams ein zielführendes, tiefes und sehr detailliertes Kundenverständnis. Durch diese holistische Beobachtung steigt die Wahrscheinlichkeit, ungelöste Probleme und unbefriedigte Bedürfnisse von Kunden zu erkennen. Im Endeffekt zerlegt diese Methode zunächst die Customer Journey in seine einzelnen Bestandteile, um diese besser zu verstehen und anschließend wieder zusammen zu fügen, um Zusammenhänge zwischen Ursache und Wirkung besser zu verstehen.
Flow-Team-Methode
F wie Flow-Team-Methode
Die Flow-Team-Methode ist eine Makromethode in der Kreativitätstechnik und beruht auf Erkenntnissen der System-Theorie und der Chaos-Forschung. Entwickelt wurde die Methodik vom schweizer Physiker und Unternehmensberater Martin Gerber sowie amerikanischen Wissenschaftlern. Die Flow-Theorie selbst wurde von dem Glücksforscher Mihaly Csikszentmihalyi geprägt und bezeichnet das als glücklich empfundene Gefühl, wenn man in einer Tätigkeit gedanklich völlig vertieft ist und darin aufgeht. Im Gegenteil zum Stress bei Überforderung erlebt man keine inneren Widerstände, sondern befindet sich im Fluss (englisch: Flow). In diesem Glückszustand befinden sich Gedanken, Handlungen und Emotionen im Einklang. Die Flow-Team-Methode nutzt diese Erkenntnisse und fördert eine erfolgreiche Teamarbeit, schafft Rahmenbedingungen für anspruchsvolle Leistungsanforderungen, baut einen Leistungsethos auf, lässt Freiraum für Selbstverantwortung und ermöglicht vor allem Spaß an und durch Leistung. Außerdem dient sie der Selbstorganisation in komplexen Organisationen und/oder Projekten und unterstützt als Arbeitsprinzip die effiziente Entwicklung von Organisationseinheiten. In erster Linie aktiviert die Flow-Team-Methode die kollektive Intelligenz innerhalb einer Gruppe.
Ein wesentliches Merkmal der Methode ist die so genannte „Flow Blume“, die das Grundprinzip eines Wirkungsschemas darstellt. Insgesamt hat Martin Gerber zwölf Fokusbereiche benannt, die für die kreative Arbeit von Teams sinnvoll sind. Eine andere Form der Darstellung ist das Flow Dreieck, das die Flow-Theorie und mehrere psychologische Ansätze in einem einfach zugänglichen Dreieck in Verbindung setzt. Dieses verdeutlicht die unterschiedlichen Perspektiven verschiedener Personas, wenn man deren unterschiedliche Persönlichkeiten und Entwicklungspotentiale berücksichtigt: Die „Denker“ in einem Team möchten gerne so aktiv und erfolgreich sein wie Macher, die wiederum gerne so genussvoll und beliebt sein wollen wie die Fühler – und die wiederum wollen so klug und gelassen sein wie die Denker. Diese Vereinfachung verschiedener Typen in einem Team hilft diese und deren Talente und Stärken besser zu erkennen und für die Lösung des Problems zu nutzen.
Forced-Relationship
F wie Forced-Relationship
Forced-Relationship ist eine Mikromethode in der Kreativtechnik und wird vorwiegend eingesetzt in der Entwicklung von Produkt- und Serviceinnovationen. Die intuitive Kreativtechnik zur Ideenfindung wurde durch den britischen Autor Charles S. Whiting entwickelt und arbeitet mit gezielten Reizwörtern in ungewohnten Begriffskombinationen, wodurch die Fantasie der Teilnehmer angeregt wird. Bei den Reizwörtern handelt es sich entweder um problemverwandte oder problementfernte Produkte, Verfahren oder Dienstleistungen. Eingesetzt wird die Forced-Relationship-Technik, um insbesondere bei unpräzisen Frage- und Problemstellungen neue Lösungsansätze zu finden.
Frugale Innovationen
F wie Frugale Innovationen
Eine frugale Innovation (abgeleitet von lat. frūgālis: „von den Früchten stammend“ im Sinne von karg oder genügsam) beschreibt eine Innovation, die im Gegensatz zum klassischen Innovationsgedanken keine echte Neuerung im Sinne von Differenzierung und Alleinstellung verfolgt, sondern eine vereinfachte und anwendungsorientierte Lösung bezeichnet. Frugale Innovationen sind Produkte im unteren und mittleren Preissegment, die im Nutzungskontext erschwinglich bzw. deutlich günstiger zu erwerben oder als Services zu nutzen sind. Mit ihnen werden neue und vor allem preissensible Segmente am Fuße der sozioökonomischen Pyramide erschlossen. Daher werden frugale Innovationen häufig mit Begriffen aus Entwicklungs- und Schwellenländern wie →Jugaad, →Grassroot Innovation und →Reverse Innovation in Verbindung gebracht. Anfänglich bezog sich der Begriff auf asiatische Länder wie China oder Indien, mittlerweile wird dieser auch für Afrika und Süd- sowie Lateinamerika verwendet.
Der Bedarf besteht vor allem an einfachen, funktionalen und erschwinglichen Produkten sowie bedarfsorientierten Services. Dies wird erreicht durch das Weglassen von überflüssigen und vom Kunden nicht genutzten Funktionen und Merkmalen. Frugale Innovationen sind deutlich günstiger als Vergleichsprodukte, einfach zu bedienen und anzuwenden, robust und wartungsarm sowie ressourcenschonend und nachhaltig. Typische Eigenschaften von frugalen Innovationen sind eine höhere Effizienz (das Produkt soll einen, relativ zum Preis, hohen Nutzen für den Kunden aufweisen), kapitalschonende Investitionen sowie die Erfüllung der Grundbedürfnisse (das Produkt soll nur zielgruppenspezifische und anwendungsorientierte Funktionen abdecken, diese aber auf einem mittleren bis hohen Niveau erfüllen). Deshalb geht es nicht um das einfache „Abspecken“ von Standardprodukten, sondern über spezifische Neuentwicklung von Produkten oder Lösungen mit Fokus auf die Kundenerfordernisse im jeweiligen Nutzungskontext. Diese gezielte Entwicklung frugaler Innovationen wird unter dem Begriff Frugal Engineering zusammengefasst. Deutsche Produkte sind häufig „over-engineered“ und rangieren im oberen Segment komplizierter High-Tech-Lösungen. Frugale Innovationen hingegen implizieren die Betrachtung des Bottom-of-the-pyramid, statt nur der High-End-Spitze. Dies verursacht ein komplettes Um- und Neudenken des Produktdesigns sowie eine Verschlankung aller Prozesse der Wertschöpfung. Neue Technologien begünstigen Frugal Engineering genauso wie Automatisierung oder additive Fertigung.
Function as a Service (FaaS)
F wie Function as a Service (FaaS)
Der Begriff „Function as a Service“ (FaaS) ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Geschäftsprozesse durchzuführen. Gleichzeitig wird für deren Management keine eigene Infrastruktur benötigt. Diese wird vom Anbieter des Services bereitgestellt. Somit entfällt der damit verbundene Aufwand wie z. B. Wartungen oder regelmäßige Updates und dgl. Programmierer können sich komplett auf das Programmieren von Codes in Form der benötigten Applikationen und deren Anwendungen fokussieren. Dabei bezeichnet der Begriff „Funktion“ eine Softwarekomponente, die oft nur über Sekunden ausgeführt wird. Anwendungen können aus einer Funktion oder einer Vielzahl von Funktionen bestehen. Mobile Applikationen sowie Datenverarbeitung sind typische Anwendungen, selten ausgeführte Workloads und hoch volumige Transaktionen sind besonders präferiert für FaaS. Deren Entwicklung findet in so genannten Containern statt, die Verwaltung erfolgt komplett über eine hierfür bereitgestellte Plattform – üblicherweise in einer Cloud. Die Berechnung von FaaS-Lösungen erfolgt durch den Anbieter auf Basis der benötigten Rechenleistung und des genutzten Datenspeichers. Der Vorteil: wenn wenig Anfragen eintreffen, wird die Anwendung herunter skaliert und somit nur die tatsächlich angefallenen Ressourcen berechnet. Die Folge: Standby-Zeiten fallen somit nicht an.
Die Besonderheit bei FaaS besteht darin, dass dieser einer reaktiv ablaufenden Systematik folgt, die durch „Events“ gesteuert werden. Diese Events werden durch bestimmte Anlässe (z. B. dem Klick auf einen Button) ausgelöst, wodurch eine dafür festgelegte Funktion abgerufen wird und der Service wartet so lange, bis ein erneuter Anlass generiert wird. Grundlage für die Funktionsweise von FaaS ist, dass die Reaktion auf den Anlass direkt gestartet und ausgeführt wird.
Der Unterschied zwischen FaaS und →Software as a Service (SaaS) liegt zum einen im Umfang der Anwendungen. Während sich FaaS im Mikrokosmos der Ökosysteme bewegt und auf einfache Funktionen beschränkt ist, erhalten Nutzer mit Software as a Service umfangreiche Anwendungen. Zum anderen sind SaaS-Lösungen vom Funktionsumfang klar definiert, so dass Entwickler auf zusätzliche Funktionen keinen Einfluss nehmen können. Im Gegensatz dazu definieren und beeinflussen Entwickler bei FaaS-Lösungen die gewünschten Funktionen individuell nach den bestehenden Anforderungen.
Future Model Canvas
F wie Future Model Canvas
Im Gegensatz zu anderen Methoden im modellgetriebenen Engineering beginnt Future Modeling zunächst mit einer proaktiven Zukunftsvision. Hierbei werden eine größtmögliche Auswahl möglicher Szenarien entwickelt und anschließend systematisch strukturiert und priorisiert. Eingesetzt wird hierzu ein Future Modeling Framework, das auch als Future Model Canvas bezeichnet wird. Dies beschreibt eine standardisierte und transparente Methode für die kurzfristige Umsetzung von Produktentwicklung und Innovationsprojekten, kann aber auch bei strategischen Entscheidungen eingesetzt werden. Das Framework kombiniert Elemente der herkömmlichen Prognostik und traditioneller Trendforschung mit agilen Methoden wie z. B. Design Thinking und Experience Design. Future Model Canvas ist eine wissenschaftlich fundierte Methodik für die Unternehmens- und Produktstrategie und besteht neben einem standardisierten Framework aus verschiedenen Tools und Moderationsmethoden.
G wie Gabor-Granger-Methode
G wie Gabor-Granger-Methode
Die gleichnamige Methode zur Bestimmung eines Preises für ein neues Produkt oder für eine neue Dienstleistung wurde 1964 von Clive Granger und André Gabor entwickelt. Hierzu werden verschiedene Preise vorgestellt und Kunden anschließend befragt, wie wahrscheinlich es ist, dass diese das Produkt oder die Dienstleistung zu diesem Preis kaufen würden. Hierbei empfehlen sich drei bis vier Preisstufen und Preissprünge in gleichen Abständen. Die direkte Preisbefragung zur Bestimmung der Preisabsatzfunktion soll Aufschluss darüber geben, ob der Preis für ein bestimmtes Produkt oder eine bestimmte Dienstleistung erhöht werden kann, ohne dass der Absatz (zu) stark sinkt. In einem Gabor-Granger-Nachfrage-Diagramm soll erfasst werden, bei welcher Preisschwelle die Zahlungsbereitschaft der Kunden überproportional steigt oder sinkt. Die x-Achse stellt die Preise und die y-Achse den Prozentsatz der Kunden dar, die bereit sind, diesen Preis zu zahlen. Hinzu kommt eine Umsatzkurve, bei der die y-Achse den optimalen Umsatz darstellt und die x-Achse den Preis. Somit misst die Gabor-Granger-Methode die Preissensibilität und schätzt die Nachfrage ab und basiert darauf, Kunden nach ihrer Kaufbereitschaft und die Kaufwahrscheinlichkeit zu befragen. Anhand der angegebenen Wahrscheinlichkeiten eines Kundenquerschnitts kann letztendlich eine Preis-Absatz-Funktion und anhand eines Umsatzszenarios der optimale Preis bestimmt werden. Der Vorteil besteht in einer einfachen Methode und einem verhältnismäßig geringem Aufwand. Der Nachteil besteht darin, dass Wettbewerbsprodukte in der Befragung nicht berücksichtigt werden.
Im Unterschied zur →Van Westendorp Analyse wird die Preisbereitschaft bei der Gabor-Granger-Methode gestützt abgefragt. Dies bedeutet, dass Kunden in einer Studie vordefinierte Preise präsentiert bekommen und ihre Kaufwahrscheinlichkeit in Prozent angeben. Bei der Van Westendorp Methode werden dagegen vier verschiedene offene Fragen gestellt, mit denen der Preisbereich eines Kunden nur eingegrenzt wird.
G wie GAIA-X
GAIA-X entstand auf Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi) und dient dem Auf- und Ausbau einer europäischen Dateninfrastruktur. Im Schulterschluss zwischen Politik, Wirtschaft und Wissenschaft soll eine sichere digitale Infrastruktur in Europa entwickelt werden, die digitale Souveränität und Innovation fördert. Das Ziel der Initiative ist ein Software-Framework, in das gemeinsame Richtlinien und Regeln implementiert werden, die auf jeden vorhandenen Cloud-/Edge-Technologie-Stack angewendet werden können. Das Framework soll auf jeder bestehenden Plattform bereitgestellt werden, die sich für die Einhaltung des Gaia-X-Standards entscheidet. Derzeit ist der organisationsübergreifende Datenaustausch durch proprietäre, intransparente und/oder nicht interoperable Technologien eingeschränkt, wodurch das erforderliche Maß an Vertrauen fehlt. Digitale Souveränität bedeutet die Autonomie und Selbstbestimmung, um technologische Entscheidungen treffen zu können. Gaia-X hat sich zum Ziel gesetzt, diese Vertrauenslücke zu schließen, indem es eine neue Generation digitaler Plattformen implementiert, die für Transparenz, Kontrollierbarkeit, Portabilität und Interoperabilität über Daten und Dienstleistungen in digitalen Ökosystemen sorgen. Die Architektur von Gaia-X basiert auf dem Zusammenspiel zahlreicher individueller Plattformen. Es entsteht demzufolge nicht nur eine Cloud, sondern vielmehr ein vernetztes System, das viele Cloud-Service-Anbieter unter einem Standard miteinander verbindet. Die Organisationsstruktur von Gaia-X baut auf drei Säulen auf: der Gaia-X Association, den nationalen Gaia-X Hubs und der Gaia-X Community.
G wie Gamification
Der Begriff Gamification wird zunehmend inflationär und unscharf verwendet, was typische Indikatoren für Buzzwords sind. Einer der Gründe hierfür ist, dass neben diesem Begriff auch Game-based-Learning, Playful Learning oder Serious Games oft synonym verwendet werden. Dabei gibt es bei allen Gemeinsamkeiten und Überschneidungen auch Unterschiede. Gamification oder auch Gamifizierung ist der Gattungsbegriff für die Extrahierung und Anwendung spielerischer Strukturen oder spieltypischer Elemente in einem spielfremden Kontext wie z. B. in Unternehmen oder Schulen. Zu diesen spieltypischen Elementen gehören u. a. Erfahrungspunkte, Highscores, Fortschrittsbalken, Ranglisten, virtuelle Güter oder Belohnungen und Auszeichnungen. Die Integration dieser spielerischen Elemente steigert die Motivation der Menschen, die ansonsten wenig herausfordernde, oft als zu monoton empfundene oder zu komplexe Aufgaben erfüllen müssen. Es muss dabei nicht zwingend ein Lernziel formuliert bzw. eine Lernumgebung geschaffen werden. Die Philosophie dahinter ist, eine als anstrengend oder langweilig empfundene Arbeit in etwas spannendes und Interessantes umzuwandeln. Untersuchungen und Studien belegen, dass durch gamifizierte Anwendungen zum Teil signifikante Verbesserungen erzielt werden z. B. in Bereichen wie Benutzermotivation, Lernerfolg, Kundenbindung, ROI oder Datenqualität.
Game-based Learning dagegen fokussiert sich auf die Lernmethode und -didaktik und auf das Lernumfeld. Beim „Lernen mit Spielen“ können, aber müssen nicht, Spiele zum Einsatz kommen, die speziell als Lernspiele konzipiert wurden. Auch einfache Brett- oder Kartenspiele können ein konkretes Lernziel unterstützen. Der Fokus liegt auf dem Erwerb von Wissen und/oder der Erprobung von Kompetenzen, die außerhalb des Spiels liegen. Die größte Überschneidung gibt es zum Playful Learning, das als „Spielerisches Lernen“ übersetzt werden kann. Anders als beim Game-based Learning muss hier allerdings nicht zwingend ein Spiel als Lehrmethode verwendet werden. Der Fokus liegt insgesamt auf einer spielerischen Lernerfahrung. Typische Trigger bei dieser Variante sind z. B. die natürliche menschliche Neugier, die genutzt wird, um neue Wissensbereiche spielerisch zu erschließen. In den letzten Jahren hat sich mit den Serious Games eine weitere Variante im Gamification entwickelt. Hierbei handelt es sich z. B. um Plan-, Strategie- oder Rollenspiele meist in einem B2B-Umfeld, mit denen ernsthafte Themen wie z. B. Strategieentwicklung, Konflikt- oder Problemlösung, Entwicklung von Innovationen und/oder neuen Geschäftsmodellen angegangen werden. Diese Spiele dienen in erster Linie nicht der Unterhaltung, sollen aber unterhaltsam, kurzweilig und spielerisch Lösungen in einem schwierigen Umfeld unterstützen. Häufig werden Serious Games als digitale Version genutzt, da diese mehr Interaktion und Analyse der Ergebnisse ermöglicht. Gerade bei Entwicklungsschritten in Unternehmen dienen die Ergebnisse häufig als Blaupause für spätere Wiederholungen. Außerdem ermöglichen sie eine hohe Individualisierung, Personalisierung und Interaktion.
G wie "Garage"
Der Begriff Garage im Kontext von Innovationen stilisiert einen einfachen Raum als Quelle und Inspiration für kreative Ideen und innovative Entwicklungen. Er ist der Inbegriff für innovative Startups und symbolisiert die Zweckmäßigkeit eines Raumes, der in seiner Kargheit zum Denken, Experimentieren, Forschen und Handeln animiert und inspiriert. Der Begriff ist nicht zufällig gewählt, denn viele innovative Unternehmen vornehmlich aus dem Silicon Valley in den USA hatten als ersten Firmensitz nur eine Garage: Google, Apple, Amazon oder Hewlett-Packard, um nur einige zu nennen. Sie stehen in besonderem Maße für technologische Innovationen bis hin zu Disruption und symbolisieren die Garage als besonderen Innovations- und Wissensraum sowie Denk- und Kreativwerkstatt. Der US-amerikanische Wissenschaftler Ralph Katz vom Massachusetts Institute of Technology bringt es auf die kurze, aber sehr einprägsame Formel: „Every breakthrough company had to go through a phase of garage-mentality“. Er bezieht sich dabei auf bahnbrechende Innovationen mit einem Unternehmensgeist, der seinen Ursprung in einer Garage hatte. Außerdem erkannte einige interessante Gemeinsamkeiten: Erstens gründeten alle Unternehmen im kalifornischen Silicon Valley, wo bis heute eine ausgeprägte Kultur zur Gründung von Startups anhält. Zweitens entstammt jedes Unternehmen quasi seiner eigenen technologischen Epoche. Und drittens wurden die Unternehmen von einem oder zwei charismatischen Jung-Unternehmern gegründet, die mit ihren Visionen weit ihrer Zeit voraus waren.
Das Phänomen einer Garage als Raum mit eher primitiven Rahmenbedingungen zur Entfaltung seiner stark aktivierenden Kraft als Labor, Ideenwerkstatt oder Rückzugsraum wurde seitdem in zahlreichen Studien erforscht. Heute weiß man, dass die Garage aus mehreren Gründen zum Denken, Experimentieren, Forschen und Handeln animiert und inspiriert und somit zum Arbeiten motiviert: Die Atmosphäre eines kargen Raumes führt dazu, dass man sich selbst spürt. Schlichte Wände, fehlende Einrichtungen, schlechte Akustik und Wärmedämmung schaffen eine Atmosphäre der Abgeschlossenheit und Voraussetzung für „ein-sich-zurückziehen“. Kreative Menschen suchen vor allem Leerräume, in denen sie sich entfalten können, nicht auf Widerstände stoßen und in denen sie sich mit sich selbst direkt auseinandersetzen können. Die Leere „zwingt“ sie zur Aktivität. Hinzu kommt, dass die Garage an sich ein leerer, anspruchsloser bis langweiliger Raum ist ohne Komfort oder besondere technische Installationen (im Gegensatz zu konventionellen Arbeitsräumen, die eher zweckmäßig und funktional sind und in denen vorgegebene Leistungen zu erbringen sind). Besonders wertvoll macht die Garage als einen Ort des Rückzugs, in dem man ungestört seinen Gedanken freien Lauf lassen kann und Niemand die unperfekten Zwischenergebnisse zu sehen bekommt und möglicherweise schon bewertet. Erst durch das Öffnen der Garage wird die Denkfabrik oder Kreativwerkstatt zum Ausstellungsraum und präsentiert z. B. einen Prototyp. Dies macht die Garage zu einem äußerst flexiblen Raum. Kreative Ideen und innovative Konzepte werden in einen Raum hineingetragen, nicht umgekehrt. Denn erst in einem Raum können diese entwickelt werden, so dass man ihnen einen materiellen oder auch immateriellen Körper gibt. Für das Verständnis von Innovation und agile Transformation hilft, dass eine Garage nur temporär als Innovations- und Wissensraum sowie Denk- und Kreativwerkstatt genutzt wird. In den Phasen zwischen Invention und Innovation verändern sich sämtliche Abläufe, Strukturen, Zuständigkeiten und Ansprüche eines Unternehmens. Innovationsforscher sprechen davon, dass die Garage einen bestimmten Typus von Nicht-Ort oder Leerraum verkörpert. In Bezug auf Invention und Innovation ist sie ein schwebendes Intermediär zwischen Kreativität und Chaos sowie Struktur und Organisation.
G wie Gatekeeper
Ein Gatekeeper ist eine zentrale Schlüsselperson in einer Organisation. Er ermöglicht den Zugang zu Entscheidungsinstanzen oder -personen und ist somit ein wichtiger Einflussfaktor in einem Entscheidungsfindungsprozess. Der Begriff wird häufig im →Innovationsmanagement und speziell im →Stage-Gate-Prozess verwendet. Der Gatekeeper hat ein umfangreiches und interdisziplinäres Fachwissen, genießt ein hohes Ansehen in der Organisation und agiert unabhängig von laufenden Innovationsprojekten. Dies unterscheidet ihn z. B. von →Promotoren, die eng mit einem Innovationsprojekt verbunden sind. Der Gatekeeper hat ein großes Netzwerk zu Universitäten und Forschungseinrichtungen, zu Innovationsagenturen und Zukunftsforscher sowie zu Geschäftspartnern und Branchenexperten. Häufig handelt es sich bei Gatekeepern um Mitglieder aus dem Management; je nach Unternehmensgröße entweder aus der Geschäftsleitung der einzelnen Unternehmensbereiche oder um den Fachbereichsleiter. Wichtig ist, dass Gatekeeper über die notwendige Kompetenz verfügen, die Weiterführung oder den Stopp eines Innovationsprojektes entscheiden zu können und zu dürfen. Bei Projekten mit einem höheren Risiko hat sich bewährt, unterschiedliche Gatekeeper einzusetzen, um eine objektive und unabhängige Bewertung vornehmen zu können.
G wie Gebrauchsmuster
Technische Erfindungen, die neu und gewerblich anwendbar sind, können auch als Gebrauchsmuster geschützt werden. Ein Gebrauchsmuster ist ein gewerbliches →Schutzrecht. Es räumt dem Inhaber für einen Zeitraum von bis zu 10 Jahren das ausschließliche Recht ein, über seine Erfindung zu verfügen. Niemand darf ohne seine Zustimmung von der Erfindung Gebrauch machen und Produkte ohne Lizenz herstellen, anbieten, in den Verkehr bringen oder importieren. Ein Gebrauchsmuster kann für Erfindungen und Verfahren aus allen Bereichen der Technik erteilt werden, ausgenommen sind Verfahren wie z. B. Herstellungsverfahren. Wichtige Kriterien sind Neuheit, das beruhen auf einer erfinderischen Tätigkeit und eine gewerbliche Anwendbarkeit. Der Neuheitsbegriff wird beim Gebrauchsmuster nicht ganz so eng gesetzt wie beim →Patent. Bei einem Gebrauchsmuster muss es sich nicht um eine Weltneuheit handeln. Es reicht vielmehr aus, wenn noch keine druckschriftliche Veröffentlichung über die Erfindung oder deren offenkundigen Vorbenutzung im Inland vorliegt. Vorträge, Äußerungen in Konferenzen sowie Vorbenutzungen im Ausland sind demzufolge nicht neuheitsschädlich. Dagegen ist ein Gebrauchsmuster nicht möglich für bloße Entdeckungen (also dem Auffinden von etwas bereits Vorhandenem), wissenschaftliche Theorien oder mathematische Methoden, Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, Spiele, ästhetische Formschöpfungen sowie geschäftliche Tätigkeiten wie z. B. Geschäftsmodelle oder Organisationsstrukturen. Als erfinderisch ist eine Tätigkeit einzustufen, wenn ein mit der Materie vertrauter Fachmann mit durchschnittlicher Expertise nach dem Stand der Technik nicht in der Lage wäre, zu dieser technischen Entwicklung zu gelangen. Man nennt dies auch die so genannte Erfindungshöhe, nicht zu verwechseln mit der Schöpfungshöhe im Urheberrecht. Im Gegensatz zum Patent findet bei der Anmeldung eines Gebrauchsmuster keine inhaltliche Prüfung oder Recherche von Schutzrechten Dritter statt, sondern nur eine formelle Prüfung. Eine umfassende Prüfung findet erst dann statt, wenn ein Dritter sich mit einem Löschungsantrag gegen das Gebrauchsmuster wendet oder im Rahmen eines Schadensersatzprozesses.
G wie Generation
Der Begriff Generation bekommt als Synonym für Zielgruppen und Kundensegmente im Marketing, Vertrieb und in der Personalentwicklung eine immer größere Bedeutung. Der Duden beschreibt den Begriff als „die Gesamtheit aller etwa zur gleichen Zeit geborenen Menschen.“ Während früher der Begriff mehr den Fokus auf die Nachfolge innerhalb einer Familie wie Großeltern, Eltern, Kinder, Enkel usw. legte (Stammbaum-Logik), geht es heute mehr um ein gemeinsames Lebensgefühl, Werte und Interessen und dgl. bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Denn heute weiß man, dass eine Gruppe von Menschen, die gleichzeitig geboren wurde, nicht gleichzeitig auch eine Generation sein muss. Vielmehr wird eine Generation zu einer Generation geprägt, denn die Prägung erfolgt über die Inhalte. Wichtige Voraussetzung hierfür ist, dass die Gruppe von Personen im selben historisch-kulturell-sozialen Raum lebt. Infolgedessen entwickeln sich ähnliche Geisteshaltungen, Wertevorstellungen, Verhaltensformen und Interessen, die Orientierung und Einstellung prägen. In der Soziologie spricht man davon, dass eine Erlebnisparallelität gegeben sein muss, die über ein Generationsbewusstsein zu einer Generationsidentität führt.
In der Zielgruppensegmentierung werden heute folgende Generationen unterschieden: die →Generation Silent (gemeint ist die Weltkriegsgeneration der Jahrgänge 1928 bis 1945), die →Generation Boomer (hier handelt es sich um die geburtenstarken Jahrgänge 1946 bis 1964), die →Generation X (oder auch die Generation der „Faulenzer“ in den Jahrgängen 1965 bis 1980), die →Generation Y oder Millennials der Jahrgänge 1981 bis 1996, die →Generation Z für Zoomer oder besser bekannt unter dem Begriff Digital Natives der Jahrgänge 1997 bis 2010 und die →Generation Alpha, die für die Jahrgänge 2011 bis in die Gegenwart stehen.
Auch wenn die Intervalle zwischen den Generationen in der Regel zwischen 20 bis 25 Jahren liegen, muss beachtet werden, dass zu jedem Zeitpunkt neue Menschen geboren werden und somit eine klare Abgrenzung einer Generation schwierig ist. Soziologen betrachten daher die Schichten in der Alterspyramide als die Generationsschichtung der Bevölkerung. Früher gab es in den Übergangsbereichen häufig Generationenkonflikte (vor allem in Punkten der Erziehung oder Lebensweise). Dieses Problem ist heute weniger stark ausgeprägt, da die Toleranz in der Gesellschaft generell und speziell der jüngeren Generation gegenüber der älteren gestiegen ist. Außerdem fällt auf, dass die Intervalle immer kürzer werden. Während bis in die 1980er Jahre noch mit drei Generationen pro Jahrhundert gerechnet wurde, setzt man heute vier bis fünf Generationen an. Ursächlich sind ein sinkendes Alter bei der Eheschließung und der Geburt des ersten Kindes sowie einer allgemein höheren Lebenserwartung.
G wie Generation Alpha
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Bei der Generation Alpha (Gen Alpha oder Generation α) handelt es sich um die Generation, die in etwa nach 2010 geboren wurde und die komplett mit den Technologien des 21. Jahrhunderts aufwachsen wird. Ihre Denk- und Lebensweise ist noch um ein vielfaches digitaler ausgeprägt, als es bereits bei den so genannten →Digital Natives der Fall ist. Diese Generation wird komplett geprägt durch die digitale Transformation der kompletten Gesellschaft, aber auch durch die Folgen der politischen Instabilität, dem demografischen Wandel sowie den Auswirkungen des Klimawandels.
G wie Generation (Baby) Boomer
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation der Baby Boomer gehören die Geburtenjahrgänge 1945 bis Mitte der 1960-er Jahre. Der starke wirtschaftliche Aufschwung in den Nachkriegsjahren sowie hohe Wachstumsraten über einen längeren Zeitraum haben diese Generation geprägt. In diesen Zeitraum fallen nicht nur die Jahrgänge mit den höchsten Geburtenzahlen, sondern auch die Friedens- und Umweltbewegung sowie die Ölkrise. Diese werteorientierte Generation ist auf Leistungsdruck und Konkurrenzverhalten, Aufmerksamkeit und Respekt sowie Individualität fokussiert.
G wie Generation Lockdown
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zu den bekannten →Generation Silent, →Generation Boomer, →Generation X, →Generation Y, →Generation Z →Generation Alpha kommt aufgrund der aktuellen Ereignisse ein neuer Generationenbegriff hinzu: die Generation Lockdown. Diese bezeichnet eine Gruppe von Menschen, die in der Covid-19-Pandemie (Corona) ihren Berufseinstieg im Jahr 2020 haben. Aufgrund der Pandemie wird es für Berufseinsteiger schwieriger, nach der Ausbildung oder dem Studium direkt einen Job zu finden.
G wie Generation Silent
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation der Silent zählen die Geburtenjahrgänge Ende der 1920-er Jahre bis zum Ende des zweiten Weltkriegs. Die stille Generation wurde durch die Auswirkungen und Folgen des Krieges geprägt wie Unsicherheit, Vertreibung und große Entbehrungen. Der Begriff stille Generation hat seinen Ursprung darin, dass es vor allem im Dritten Reich gefährlich war, seine Gedanken offen auszusprechen.
G wie Generation X
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation X gehören die Geburtenjahrgänge Mitte der 1960-er Jahre bis 1980. Diese Generation wurde geprägt durch großen technischen Fortschritt, aber auch durch politische Blockbildung und Aufrüstung (Nato und Warschauer Pakt), die ersten Umweltkatastrophen (Tschernobyl) sowie die Thematisierung der Klimaveränderung (Ozonloch), der Integrationsprozess der EU, Konjunkturkrisen und eine wachsende Arbeitslosigkeit. Hinzu kamen steigende Scheidungsraten und die Entwicklung zu Doppelverdienern (in der Familie). Die Generation X ist allerdings auch die erste und aktuell einzige Generation ohne Kriegseinwirkung. Arbeit ist ein zentraler Lebensinhalt, wobei auch eine Orientierungslosigkeit die Generation der Slacker bestimmt.
G wie Generation Y
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Die Generation Y wird auch als Millennials oder Generation Why bezeichnet und umfasst die Geburtenjahrgänge von Anfang der 1980-er bis Mitte der 1990-er Jahre. Geprägt wurde sie durch die Terroranschläge vom 11. September sowie eine hohe und bis dahin nicht bekannte Jugendarbeitslosigkeit. Die damit verursachte Unsicherheit ist für diese Generation nichts unnormales. Anstelle von Status und Prestige steht die Freude an der Arbeit, Selbstverwirklichung und Freiräume sowie Freizeit im Vordergrund. Zur Generation Y gehören besonders viele →H.E.N.R.Y.’s – ein Kundensegment, dass sehr gut verdient. Des Weiteren ist die Generation Y die erste der so genannten →Digital Natives.
G wie Generation Z
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Die Generation Z für Zoomer umfasst die Geburtenjahrgänge von Mitte/Ende der 1990-er Jahre bis 2010. Diese Generation ist mit dem Internet, mobilen Geräten (Tablets, Smartphones), digitalen Technologien und den sozialen Netzwerken groß geworden. Man bezeichnet diese Generation deshalb auch als →Digital Natives. Die Zoomer konzentrieren sich nur auf ihre eigenen persönlichen Ziele, was sie zu Einzelkämpfern und Individualisten macht. Die Lebenslust und die Maximierung von Erlebnissen treibt sie genauso an wie nicht festgelegte Strukturen und Abläufe. Soziale Netzwerke werden ohne Rücksichtnahme auf die eigene Privatsphäre extensiv genutzt. Dies zeigt sich auch dadurch, dass es in der Generation Z besonders viele →Smombie’s gibt – das Smartphone ist omnipräsent. Informationen und Wissen werden ausschließlich über das Internet konsumiert.
G wie Geschäftsmodellinnovation
Innovationen werden in vielen Unternehmen (immer noch) mit der technischen Entwicklung von Produkten gleichgesetzt. Mit Hilfe des Innovationsmanagements und eines klaren Innovationsprozesses werden die unterschiedlichen Stufen bei der Entwicklung neuer Produkte strukturiert und mit Hilfe eines Innovationscontrollings einem Review unterzogen. Der Prozess der Geschäftsmodellinnovation ist dagegen deutlich komplexer und umfasst je nach Unternehmensstruktur entweder die gesamte Organisation oder eine neue Business Unit. Häufig wird der Begriff Business Model Innovation verwendet, wenn Unternehmen bewusst ihr bestehendes und/oder gesamtes Geschäftsmodell überdenken, verändern und erneuern.
In der Regel beginnt dieser Prozess mit der Formulierung einer innovativen Value Proposition sowie anschließend der Entwicklung eines Vertriebsmodells und dessen Monetarisierung. Business Model Innovation definiert erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur inhaltlichen Entwicklung von innovativen Produkt- und/oder Prozesslösungen, Services und Dienstleistungen geht es bei der Business Model Innovation also vor allem um deren Monetarisierung. Selbst vermeintlich kleine Veränderungen im Geschäftsmodell wie z. B. die Umstellung der Monetarisierung (Leasing statt Kauf) können in bestimmten Branchen oder Marktsegmenten eine Business Model Innovation darstellen.
Findet dieser Prozess ausschließlich auf Basis von Daten statt, werden Business Model Innovation auch als digitale Geschäftsmodelle bezeichnet. Dabei verlagert sich die Integration selber immer mehr von der physischen in die virtuelle Welt und wird mit technischen Schnittstellen realisiert (API-Economy), so dass feste digitale Ökosysteme entstehen.
Zu häufig werden Business Model Innovation immer noch mit völlig neuen, revolutionären und disruptiven Geschäftsmodellen gleichgesetzt und krampfhaft versucht, einen „Blue Ocean“ zu kreieren. Dabei reicht es häufig, Bestehendes neu zu kombinieren oder aus Kundensicht zu akzentuieren und permanent iterativ zu optimieren. Wer die Maximalvorstellung seiner Bedarfsgruppen zum Benchmark erklärt – und nicht den Branchenstandard oder Best Practice des Marktführers – wird nicht nur innovativ sein, sondern erfolgreich innovieren. Dies belegen genügend positive (z. B. Apple, Amazon) wie auch mahnende Beispiele (z. B. Nokia, Kodak).
Business Model Innovation ist ein permanenter und iterativer Prozess, der in seinem Impact unterschiedlich stark ausgeprägt sein kann. Selbst kleine Veränderungen im Geschäftsmodell oder nur in dessen Monetarisierung können für den Kunden einen großen Nutzen auslösen und einen erheblichen Mehrwert bieten. Man muss also nicht zwangsläufig zum „Hacker“ seines eigenen Geschäftsmodell werden, um eine Geschäftsmodellinnovation zu entwickeln und erfolgreich zu vermarkten.
Eines der größten Probleme von Geschäftsmodellinnovationen ist, dass es trotz der Kenntnis der zahlreichen Vorteile, der Bereitschaft zur Veränderung und hohen Komplexität in der Implementierung von Business Model Innovation kaum Methoden und Tools existieren, um diese systemisch und systematisch planen, entwickeln und umsetzen zu können. Auf bewährte Methoden kann in der Regel nicht zurück gegriffen werden, da diese auf die Effizienz bestehender Geschäftsmodelle ausgerichtet sind. Und agile Arbeitsmethoden von Startups können auf traditionelle Unternehmen nicht übertragen werden.
Aus der bisherigen Erfahrung müssen Methoden zur Ideenfindung sowie Visualisierung und Bewertung von Geschäftsmodellinnovationen organisch entwickelt werden. Die so genannte Dynamic Capabilities – also Fähigkeiten von Unternehmen, interne und externe Kompetenzen zu integrieren, aufzubauen und neu zu konfigurieren – können nicht von außen entwickelt werden. Im Kontext von Innovationen gehören hierzu die Entwicklungs-, Kooperations- und Finanzierungsfähigkeit – sie sind das Herzstück der Innovationsfähigkeit von Unternehmen und Spiegelbild der Innovationskultur.
G wie Grassroot-Innovation
Grassroot-Innovationen sind ein Synonym für →frugal Innovation. Sie stehen für Bottom-up-Lösungen aus innovativen Netzwerken von Aktivisten und Organisationen. Ein wesentliches Merkmal ist, dass diese nachhaltigen Entwicklungen auf die lokale Situation und Interessen und Werte der beteiligten Gemeinschaften eingehen.
G wie Green Building
Green Building bezeichnet ein Gebäude unter dem ganzheitlichen Ansatz der Nachhaltigkeit über den kompletten Lebenszyklus, angefangen bei der Planung und Konstruktion über die Herstellung und Nutzung bis hin zur Wartung sowie der Umnutzung oder Demontage. Hierbei wird ein besonderer Fokus auf Ressourceneffizienz in den Bereichen Energie, Wasser und Material geachtet. Außerdem wird auf die Vermeidung von schädlichen Auswirkungen auf die Gesundheit der Menschen als Nutzer sowie auf die Umwelt geachtet. Hierzu gehören je nach Gebäudeart auch die Wohn- und Arbeitsqualität sowie die Integration in die Umgebung. Niedrigenergiehäuser, Solarhäuser, Passiv- oder Nullenergiehäuser werden z. B. der Kategorie Green Building zugeordnet. Da der Begriff Nachhaltigkeit zum Teil sehr inflationär und unscharf verwendet wird, hat die Enquête-Kommission des Deutschen Bundestages mit dem „Drei-Säulen-Modell“ den Begriff präzisiert. Demnach wird die Konzeption einer dauerhaft zukunftsfähigen Entwicklung der ökonomischen, ökologischen und sozialen Dimension menschlicher Existenz als nachhaltig bezeichnet. Mit diesen drei Dimensionen der Nachhaltigkeit wird im Wesentlichen ausgedrückt, dass u. a. kein Raubbau an der Natur betrieben wird und natürliche Lebensgrundlagen nur in dem Maße beansprucht werden wie diese sich regenerieren können. Dies umfasst in erster Linie den Erhalt der Biodiversität (Artenvielfalt), den Klimaschutz, die Pflege von Kultur- und Landschaftsräumen in ihrer ursprünglichen Gestalt sowie einen schonenden und umweltfreundlichen Umgang mit der natürlichen Umgebung. Hierzu gehört aber auch, dass eine Gesellschaft wirtschaftlich nicht über ihre Verhältnisse lebt und so organisiert sein soll, dass sich soziale Spannungen in Grenzen halten und Konflikte auf friedlichem Weg ausgetragen werden können. Neben sozialer Gerechtigkeit steht dieser Aspekt auch für humane Arbeitsplätze, Bildung und Qualifikation für die nachfolgende Generation. Je nach Perspektive kann oder muss Nachhaltigkeit global, national oder regional umgesetzt werden.
Der Bau- und Immobiliensektor verbraucht unter allen Wirtschaftszweigen mit fast einem Viertel die größten Energieressourcen und verursacht mit knapp der Hälfte die meisten Abfälle. Deshalb hat diese Branche eine besonders hohe Verantwortung und wird durch den „Green Deal“ der Europäischen Union (ein CO2-neutrales Europa bis 2050) in die Pflicht genommen. Die derzeitige Sanierungsquote von ca. 1 Prozent bei den Bestandsgebäuden soll mindestens verdoppelt werden. Insgesamt umfasst Green Building drei Handlungsfelder:
- Ressourceneffizienz und CO2-Neutralität von Bauwerken bei der Erstellung und Nutzung,
- Kreislaufwirtschaft,
- Planung und digitale Fertigung.
Um die Ziele des Green Deal zu erreichen, muss zu der herkömmlichen Bauweise ein Paradigmenwechsel stattfinden. Für einen ganzheitlichen und integralen Ansatz dient die Methode vom Gebäudelebenszyklus, damit der Ressourcenverbrauch durch aufeinander abgestimmte Prozesse reduziert werden kann. Mit der bisherigen Fragmentierung der Bauprozesse wird dies nicht gelingen. Der Paradigmenwechsel schließt historisch gewachsene und kulturell geprägte Arbeitsweisen genauso ein wie bestehende Geschäftsmodelle und rechtliche Fragestellungen. Gebäude nach dem Lebenszyklusansatz zu planen, zu konstruieren, zu bauen, zu unterhalten und rück- oder umzubauen bedeutet darüber hinaus Informationen und Daten über Jahrzehnte auf aktuellem Stand zu halten. Nur so werden die Voraussetzungen für eine funktionierende und nachhaltige Kreislaufwirtschaft geschaffen.
Ein Ansatz, um die ganzheitliche Nachhaltigkeit von Immobilien zu vergleichen, sind Gebäudezertifizierungen. Diese werden u. a. von der DGNB (Deutsche Gesellschaft für Nachhaltiges Bauen) oder LEED (Leadership in Energy and Environmental Design) durchgeführt. Neben der Klassifizierung von Gebäuden dienen diese auch dazu, Verbesserungspotentiale zu identifizieren. Hierbei werden keine Einzelmaßnahmen bewertet, sondern immer Ursache und Wirkungen von ökologischen, ökonomischen, sozialkulturellen und funktionalen Aspekten, bezogen auf den kompletten Lebenszyklus.
G wie „Groupthink“-Phänomen
Gruppendenken ist ein Prozess, bei dem der Wunsch nach einem breiten Konsens in einer Gruppe häufig zu schlechten oder realitätsfernen Entscheidungen führt. Daraus können Situationen entstehen, bei denen die Gruppe Handlungen oder Kompromissen zustimmt, die jedes einzelne Gruppenmitglied unter anderen Umständen ablehnen würde. Anstatt Einwände gegen sie zu erheben und eigene Standpunkte zu vertreten, besteht die Sorge, sich in der Gruppe zu isolieren und Zugehörigkeit zu verlieren oder andere verhaltens-psychologische Gründe sind ursächlich. Die Folge sind ein Schweigen und passives Akzeptieren dieser Entscheidungen. Dieses Groupthink-Phänomen wurde zuerst von Irving Janis untersucht, der verstehen wollte, warum Gruppen aus intelligenten und sachkundigen Menschen trotzdem schlecht überlegte Entscheidungen getroffen haben. Auslöser waren einige der größten Fiaskos der amerikanischen Außenpolitik, die Janis analysierte und mit erfolgreichen politischen Entscheidungen verglich. Die Fiaskos waren seiner Ansicht nach auf dysfunktionale Interaktionsmuster zurück zu führen, die er als Gruppendenken bezeichnete. Ursächlich waren für ihn neben einer hohen Gruppenkohäsion strukturelle Fehler der Organisation und ein provokativer situationaler Kontext. Diese Faktoren bewirken neben einem starken Streben nach Einmütigkeit verschiedene Symptome, die in drei Kategorien unterteilt werden:
- Kategorie wird als „Selbstüberschätzung der Gruppe“ bezeichnet
- Kategorie wird unter dem Begriff „Engstirnigkeit“ zusammengefasst
- Kategorie beschreibt das Ausüben von „Druck in Richtung Uniformität“
Diese Symptome wiederum bewirken insgesamt sieben Fehler im Entscheidungsprozess, wie z. B. die unvollständige Generierung und Prüfung von Handlungsalternativen und die Unterschätzung von Risiken der präferierten Alternative. Um dem Groupthink-Phänomen entgegen zu treten, wurden einige Techniken entwickelt wie z. B. die nominale Gruppentechnik, die Delphi-Methode, die Einführung eines Teufels-Advokaten, die Verwendung von heterogenen Gruppen und das Heranziehen von externen Experten. Allerdings kann Gruppendenken nicht komplett verhindert werden, da es eine tief verwurzelte Eigenschaft der Menschen ist.
G wie Growth Hacking
Den Begriff Growth Hacking prägte 2010 Sean Ellis. Er beschreibt eine Marketingtechnik, die mit Kreativität, analytischem Denken und dem Einsatz von neuen Medien darauf abzielt, den Absatz zu fördern und die Bekanntheit zu steigern. Es geht um skalierbares Wachstum eines Unternehmens durch bestimmte Taktiken („Hacks“), bei dem Elemente aus dem Onlinemarketing (z. B. virale Kampagnen, E-Mail-Marketing, Analytics, SEO und SEA etc.) zum Einsatz kommen. Deshalb wird Growth Hacking auch häufig als Wachstumsmarketing bezeichnet. Ein Growth Hacker konzentriert sich auf Akquisition (Leadgenerierung), Aktivierung (Kundengewinnung und -bindung), Monetarisierung (Kaufabschluss) sowie Multiplikation (Weiterempfehlung an andere User). Growth Hacker haben vor allem die Kostenminimierung im Fokus und den Einsatz innovativer Alternativen zu traditioneller Werbung. Daher wird Growth Hacking häufig von Startups eingesetzt. Das Thema Marketing wird bei jungen Unternehmen im Dreiklang aus Innovation, Skalierbarkeit und Kundenzentrierung gesehen. Dabei unterscheidet Growth Hacking zwischen Produktdesign, Produkteffektivität und Marketing. Das Konzept sieht vor, mögliches Wachstum durch Leadgenerierung und Kundengewinnung, Monetarisierung und Skalierung sowie Kundenbeziehung und Geschäftsmodell in das eigentliche Produkt zu integrieren. Erfolgreiches Growth Hacking entwickelt kein Marketing um das Produkt herum, sondern integriert dieses im Produkt. Denn beim Growth Hacking geht es ausschließlich um Unternehmenswachstum. Andere Aspekte wie z. B. das Image oder der Bekanntheitsgrad werden vernachlässigt. Neukunden erfahren über ihr Netzwerk von einem Produkt oder einer Dienstleistung, nehmen dies in Anspruch und geben die Erfahrung weiter. Dieser Kreislauf aus Aufmerksamkeit, Anwendung und Weitergeben an andere verursacht exponentielles Wachstum, gerade für Startups aber auch für etablierte Unternehmen.
Gabor-Granger-Methode
G wie Gabor-Granger-Methode
Die gleichnamige Methode zur Bestimmung eines Preises für ein neues Produkt oder für eine neue Dienstleistung wurde 1964 von Clive Granger und André Gabor entwickelt. Hierzu werden verschiedene Preise vorgestellt und Kunden anschließend befragt, wie wahrscheinlich es ist, dass diese das Produkt oder die Dienstleistung zu diesem Preis kaufen würden. Hierbei empfehlen sich drei bis vier Preisstufen und Preissprünge in gleichen Abständen. Die direkte Preisbefragung zur Bestimmung der Preisabsatzfunktion soll Aufschluss darüber geben, ob der Preis für ein bestimmtes Produkt oder eine bestimmte Dienstleistung erhöht werden kann, ohne dass der Absatz (zu) stark sinkt. In einem Gabor-Granger-Nachfrage-Diagramm soll erfasst werden, bei welcher Preisschwelle die Zahlungsbereitschaft der Kunden überproportional steigt oder sinkt. Die x-Achse stellt die Preise und die y-Achse den Prozentsatz der Kunden dar, die bereit sind, diesen Preis zu zahlen. Hinzu kommt eine Umsatzkurve, bei der die y-Achse den optimalen Umsatz darstellt und die x-Achse den Preis. Somit misst die Gabor-Granger-Methode die Preissensibilität und schätzt die Nachfrage ab und basiert darauf, Kunden nach ihrer Kaufbereitschaft und die Kaufwahrscheinlichkeit zu befragen. Anhand der angegebenen Wahrscheinlichkeiten eines Kundenquerschnitts kann letztendlich eine Preis-Absatz-Funktion und anhand eines Umsatzszenarios der optimale Preis bestimmt werden. Der Vorteil besteht in einer einfachen Methode und einem verhältnismäßig geringem Aufwand. Der Nachteil besteht darin, dass Wettbewerbsprodukte in der Befragung nicht berücksichtigt werden.
Im Unterschied zur →Van Westendorp Analyse wird die Preisbereitschaft bei der Gabor-Granger-Methode gestützt abgefragt. Dies bedeutet, dass Kunden in einer Studie vordefinierte Preise präsentiert bekommen und ihre Kaufwahrscheinlichkeit in Prozent angeben. Bei der Van Westendorp Methode werden dagegen vier verschiedene offene Fragen gestellt, mit denen der Preisbereich eines Kunden nur eingegrenzt wird.
GAIA-X
G wie GAIA-X
GAIA-X entstand auf Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi) und dient dem Auf- und Ausbau einer europäischen Dateninfrastruktur. Im Schulterschluss zwischen Politik, Wirtschaft und Wissenschaft soll eine sichere digitale Infrastruktur in Europa entwickelt werden, die digitale Souveränität und Innovation fördert. Das Ziel der Initiative ist ein Software-Framework, in das gemeinsame Richtlinien und Regeln implementiert werden, die auf jeden vorhandenen Cloud-/Edge-Technologie-Stack angewendet werden können. Das Framework soll auf jeder bestehenden Plattform bereitgestellt werden, die sich für die Einhaltung des Gaia-X-Standards entscheidet. Derzeit ist der organisationsübergreifende Datenaustausch durch proprietäre, intransparente und/oder nicht interoperable Technologien eingeschränkt, wodurch das erforderliche Maß an Vertrauen fehlt. Digitale Souveränität bedeutet die Autonomie und Selbstbestimmung, um technologische Entscheidungen treffen zu können. Gaia-X hat sich zum Ziel gesetzt, diese Vertrauenslücke zu schließen, indem es eine neue Generation digitaler Plattformen implementiert, die für Transparenz, Kontrollierbarkeit, Portabilität und Interoperabilität über Daten und Dienstleistungen in digitalen Ökosystemen sorgen. Die Architektur von Gaia-X basiert auf dem Zusammenspiel zahlreicher individueller Plattformen. Es entsteht demzufolge nicht nur eine Cloud, sondern vielmehr ein vernetztes System, das viele Cloud-Service-Anbieter unter einem Standard miteinander verbindet. Die Organisationsstruktur von Gaia-X baut auf drei Säulen auf: der Gaia-X Association, den nationalen Gaia-X Hubs und der Gaia-X Community.
Gamification
G wie Gamification
Der Begriff Gamification wird zunehmend inflationär und unscharf verwendet, was typische Indikatoren für Buzzwords sind. Einer der Gründe hierfür ist, dass neben diesem Begriff auch Game-based-Learning, Playful Learning oder Serious Games oft synonym verwendet werden. Dabei gibt es bei allen Gemeinsamkeiten und Überschneidungen auch Unterschiede. Gamification oder auch Gamifizierung ist der Gattungsbegriff für die Extrahierung und Anwendung spielerischer Strukturen oder spieltypischer Elemente in einem spielfremden Kontext wie z. B. in Unternehmen oder Schulen. Zu diesen spieltypischen Elementen gehören u. a. Erfahrungspunkte, Highscores, Fortschrittsbalken, Ranglisten, virtuelle Güter oder Belohnungen und Auszeichnungen. Die Integration dieser spielerischen Elemente steigert die Motivation der Menschen, die ansonsten wenig herausfordernde, oft als zu monoton empfundene oder zu komplexe Aufgaben erfüllen müssen. Es muss dabei nicht zwingend ein Lernziel formuliert bzw. eine Lernumgebung geschaffen werden. Die Philosophie dahinter ist, eine als anstrengend oder langweilig empfundene Arbeit in etwas spannendes und Interessantes umzuwandeln. Untersuchungen und Studien belegen, dass durch gamifizierte Anwendungen zum Teil signifikante Verbesserungen erzielt werden z. B. in Bereichen wie Benutzermotivation, Lernerfolg, Kundenbindung, ROI oder Datenqualität.
Game-based Learning dagegen fokussiert sich auf die Lernmethode und -didaktik und auf das Lernumfeld. Beim „Lernen mit Spielen“ können, aber müssen nicht, Spiele zum Einsatz kommen, die speziell als Lernspiele konzipiert wurden. Auch einfache Brett- oder Kartenspiele können ein konkretes Lernziel unterstützen. Der Fokus liegt auf dem Erwerb von Wissen und/oder der Erprobung von Kompetenzen, die außerhalb des Spiels liegen. Die größte Überschneidung gibt es zum Playful Learning, das als „Spielerisches Lernen“ übersetzt werden kann. Anders als beim Game-based Learning muss hier allerdings nicht zwingend ein Spiel als Lehrmethode verwendet werden. Der Fokus liegt insgesamt auf einer spielerischen Lernerfahrung. Typische Trigger bei dieser Variante sind z. B. die natürliche menschliche Neugier, die genutzt wird, um neue Wissensbereiche spielerisch zu erschließen. In den letzten Jahren hat sich mit den Serious Games eine weitere Variante im Gamification entwickelt. Hierbei handelt es sich z. B. um Plan-, Strategie- oder Rollenspiele meist in einem B2B-Umfeld, mit denen ernsthafte Themen wie z. B. Strategieentwicklung, Konflikt- oder Problemlösung, Entwicklung von Innovationen und/oder neuen Geschäftsmodellen angegangen werden. Diese Spiele dienen in erster Linie nicht der Unterhaltung, sollen aber unterhaltsam, kurzweilig und spielerisch Lösungen in einem schwierigen Umfeld unterstützen. Häufig werden Serious Games als digitale Version genutzt, da diese mehr Interaktion und Analyse der Ergebnisse ermöglicht. Gerade bei Entwicklungsschritten in Unternehmen dienen die Ergebnisse häufig als Blaupause für spätere Wiederholungen. Außerdem ermöglichen sie eine hohe Individualisierung, Personalisierung und Interaktion.
"Garage"
G wie "Garage"
Der Begriff Garage im Kontext von Innovationen stilisiert einen einfachen Raum als Quelle und Inspiration für kreative Ideen und innovative Entwicklungen. Er ist der Inbegriff für innovative Startups und symbolisiert die Zweckmäßigkeit eines Raumes, der in seiner Kargheit zum Denken, Experimentieren, Forschen und Handeln animiert und inspiriert. Der Begriff ist nicht zufällig gewählt, denn viele innovative Unternehmen vornehmlich aus dem Silicon Valley in den USA hatten als ersten Firmensitz nur eine Garage: Google, Apple, Amazon oder Hewlett-Packard, um nur einige zu nennen. Sie stehen in besonderem Maße für technologische Innovationen bis hin zu Disruption und symbolisieren die Garage als besonderen Innovations- und Wissensraum sowie Denk- und Kreativwerkstatt. Der US-amerikanische Wissenschaftler Ralph Katz vom Massachusetts Institute of Technology bringt es auf die kurze, aber sehr einprägsame Formel: „Every breakthrough company had to go through a phase of garage-mentality“. Er bezieht sich dabei auf bahnbrechende Innovationen mit einem Unternehmensgeist, der seinen Ursprung in einer Garage hatte. Außerdem erkannte einige interessante Gemeinsamkeiten: Erstens gründeten alle Unternehmen im kalifornischen Silicon Valley, wo bis heute eine ausgeprägte Kultur zur Gründung von Startups anhält. Zweitens entstammt jedes Unternehmen quasi seiner eigenen technologischen Epoche. Und drittens wurden die Unternehmen von einem oder zwei charismatischen Jung-Unternehmern gegründet, die mit ihren Visionen weit ihrer Zeit voraus waren.
Das Phänomen einer Garage als Raum mit eher primitiven Rahmenbedingungen zur Entfaltung seiner stark aktivierenden Kraft als Labor, Ideenwerkstatt oder Rückzugsraum wurde seitdem in zahlreichen Studien erforscht. Heute weiß man, dass die Garage aus mehreren Gründen zum Denken, Experimentieren, Forschen und Handeln animiert und inspiriert und somit zum Arbeiten motiviert: Die Atmosphäre eines kargen Raumes führt dazu, dass man sich selbst spürt. Schlichte Wände, fehlende Einrichtungen, schlechte Akustik und Wärmedämmung schaffen eine Atmosphäre der Abgeschlossenheit und Voraussetzung für „ein-sich-zurückziehen“. Kreative Menschen suchen vor allem Leerräume, in denen sie sich entfalten können, nicht auf Widerstände stoßen und in denen sie sich mit sich selbst direkt auseinandersetzen können. Die Leere „zwingt“ sie zur Aktivität. Hinzu kommt, dass die Garage an sich ein leerer, anspruchsloser bis langweiliger Raum ist ohne Komfort oder besondere technische Installationen (im Gegensatz zu konventionellen Arbeitsräumen, die eher zweckmäßig und funktional sind und in denen vorgegebene Leistungen zu erbringen sind). Besonders wertvoll macht die Garage als einen Ort des Rückzugs, in dem man ungestört seinen Gedanken freien Lauf lassen kann und Niemand die unperfekten Zwischenergebnisse zu sehen bekommt und möglicherweise schon bewertet. Erst durch das Öffnen der Garage wird die Denkfabrik oder Kreativwerkstatt zum Ausstellungsraum und präsentiert z. B. einen Prototyp. Dies macht die Garage zu einem äußerst flexiblen Raum. Kreative Ideen und innovative Konzepte werden in einen Raum hineingetragen, nicht umgekehrt. Denn erst in einem Raum können diese entwickelt werden, so dass man ihnen einen materiellen oder auch immateriellen Körper gibt. Für das Verständnis von Innovation und agile Transformation hilft, dass eine Garage nur temporär als Innovations- und Wissensraum sowie Denk- und Kreativwerkstatt genutzt wird. In den Phasen zwischen Invention und Innovation verändern sich sämtliche Abläufe, Strukturen, Zuständigkeiten und Ansprüche eines Unternehmens. Innovationsforscher sprechen davon, dass die Garage einen bestimmten Typus von Nicht-Ort oder Leerraum verkörpert. In Bezug auf Invention und Innovation ist sie ein schwebendes Intermediär zwischen Kreativität und Chaos sowie Struktur und Organisation.
Gatekeeper
G wie Gatekeeper
Ein Gatekeeper ist eine zentrale Schlüsselperson in einer Organisation. Er ermöglicht den Zugang zu Entscheidungsinstanzen oder -personen und ist somit ein wichtiger Einflussfaktor in einem Entscheidungsfindungsprozess. Der Begriff wird häufig im →Innovationsmanagement und speziell im →Stage-Gate-Prozess verwendet. Der Gatekeeper hat ein umfangreiches und interdisziplinäres Fachwissen, genießt ein hohes Ansehen in der Organisation und agiert unabhängig von laufenden Innovationsprojekten. Dies unterscheidet ihn z. B. von →Promotoren, die eng mit einem Innovationsprojekt verbunden sind. Der Gatekeeper hat ein großes Netzwerk zu Universitäten und Forschungseinrichtungen, zu Innovationsagenturen und Zukunftsforscher sowie zu Geschäftspartnern und Branchenexperten. Häufig handelt es sich bei Gatekeepern um Mitglieder aus dem Management; je nach Unternehmensgröße entweder aus der Geschäftsleitung der einzelnen Unternehmensbereiche oder um den Fachbereichsleiter. Wichtig ist, dass Gatekeeper über die notwendige Kompetenz verfügen, die Weiterführung oder den Stopp eines Innovationsprojektes entscheiden zu können und zu dürfen. Bei Projekten mit einem höheren Risiko hat sich bewährt, unterschiedliche Gatekeeper einzusetzen, um eine objektive und unabhängige Bewertung vornehmen zu können.
Gebrauchsmuster
G wie Gebrauchsmuster
Technische Erfindungen, die neu und gewerblich anwendbar sind, können auch als Gebrauchsmuster geschützt werden. Ein Gebrauchsmuster ist ein gewerbliches →Schutzrecht. Es räumt dem Inhaber für einen Zeitraum von bis zu 10 Jahren das ausschließliche Recht ein, über seine Erfindung zu verfügen. Niemand darf ohne seine Zustimmung von der Erfindung Gebrauch machen und Produkte ohne Lizenz herstellen, anbieten, in den Verkehr bringen oder importieren. Ein Gebrauchsmuster kann für Erfindungen und Verfahren aus allen Bereichen der Technik erteilt werden, ausgenommen sind Verfahren wie z. B. Herstellungsverfahren. Wichtige Kriterien sind Neuheit, das beruhen auf einer erfinderischen Tätigkeit und eine gewerbliche Anwendbarkeit. Der Neuheitsbegriff wird beim Gebrauchsmuster nicht ganz so eng gesetzt wie beim →Patent. Bei einem Gebrauchsmuster muss es sich nicht um eine Weltneuheit handeln. Es reicht vielmehr aus, wenn noch keine druckschriftliche Veröffentlichung über die Erfindung oder deren offenkundigen Vorbenutzung im Inland vorliegt. Vorträge, Äußerungen in Konferenzen sowie Vorbenutzungen im Ausland sind demzufolge nicht neuheitsschädlich. Dagegen ist ein Gebrauchsmuster nicht möglich für bloße Entdeckungen (also dem Auffinden von etwas bereits Vorhandenem), wissenschaftliche Theorien oder mathematische Methoden, Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, Spiele, ästhetische Formschöpfungen sowie geschäftliche Tätigkeiten wie z. B. Geschäftsmodelle oder Organisationsstrukturen. Als erfinderisch ist eine Tätigkeit einzustufen, wenn ein mit der Materie vertrauter Fachmann mit durchschnittlicher Expertise nach dem Stand der Technik nicht in der Lage wäre, zu dieser technischen Entwicklung zu gelangen. Man nennt dies auch die so genannte Erfindungshöhe, nicht zu verwechseln mit der Schöpfungshöhe im Urheberrecht. Im Gegensatz zum Patent findet bei der Anmeldung eines Gebrauchsmuster keine inhaltliche Prüfung oder Recherche von Schutzrechten Dritter statt, sondern nur eine formelle Prüfung. Eine umfassende Prüfung findet erst dann statt, wenn ein Dritter sich mit einem Löschungsantrag gegen das Gebrauchsmuster wendet oder im Rahmen eines Schadensersatzprozesses.
Generation
G wie Generation
Der Begriff Generation bekommt als Synonym für Zielgruppen und Kundensegmente im Marketing, Vertrieb und in der Personalentwicklung eine immer größere Bedeutung. Der Duden beschreibt den Begriff als „die Gesamtheit aller etwa zur gleichen Zeit geborenen Menschen.“ Während früher der Begriff mehr den Fokus auf die Nachfolge innerhalb einer Familie wie Großeltern, Eltern, Kinder, Enkel usw. legte (Stammbaum-Logik), geht es heute mehr um ein gemeinsames Lebensgefühl, Werte und Interessen und dgl. bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Denn heute weiß man, dass eine Gruppe von Menschen, die gleichzeitig geboren wurde, nicht gleichzeitig auch eine Generation sein muss. Vielmehr wird eine Generation zu einer Generation geprägt, denn die Prägung erfolgt über die Inhalte. Wichtige Voraussetzung hierfür ist, dass die Gruppe von Personen im selben historisch-kulturell-sozialen Raum lebt. Infolgedessen entwickeln sich ähnliche Geisteshaltungen, Wertevorstellungen, Verhaltensformen und Interessen, die Orientierung und Einstellung prägen. In der Soziologie spricht man davon, dass eine Erlebnisparallelität gegeben sein muss, die über ein Generationsbewusstsein zu einer Generationsidentität führt.
In der Zielgruppensegmentierung werden heute folgende Generationen unterschieden: die →Generation Silent (gemeint ist die Weltkriegsgeneration der Jahrgänge 1928 bis 1945), die →Generation Boomer (hier handelt es sich um die geburtenstarken Jahrgänge 1946 bis 1964), die →Generation X (oder auch die Generation der „Faulenzer“ in den Jahrgängen 1965 bis 1980), die →Generation Y oder Millennials der Jahrgänge 1981 bis 1996, die →Generation Z für Zoomer oder besser bekannt unter dem Begriff Digital Natives der Jahrgänge 1997 bis 2010 und die →Generation Alpha, die für die Jahrgänge 2011 bis in die Gegenwart stehen.
Auch wenn die Intervalle zwischen den Generationen in der Regel zwischen 20 bis 25 Jahren liegen, muss beachtet werden, dass zu jedem Zeitpunkt neue Menschen geboren werden und somit eine klare Abgrenzung einer Generation schwierig ist. Soziologen betrachten daher die Schichten in der Alterspyramide als die Generationsschichtung der Bevölkerung. Früher gab es in den Übergangsbereichen häufig Generationenkonflikte (vor allem in Punkten der Erziehung oder Lebensweise). Dieses Problem ist heute weniger stark ausgeprägt, da die Toleranz in der Gesellschaft generell und speziell der jüngeren Generation gegenüber der älteren gestiegen ist. Außerdem fällt auf, dass die Intervalle immer kürzer werden. Während bis in die 1980er Jahre noch mit drei Generationen pro Jahrhundert gerechnet wurde, setzt man heute vier bis fünf Generationen an. Ursächlich sind ein sinkendes Alter bei der Eheschließung und der Geburt des ersten Kindes sowie einer allgemein höheren Lebenserwartung.
Generation Alpha
G wie Generation Alpha
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Bei der Generation Alpha (Gen Alpha oder Generation α) handelt es sich um die Generation, die in etwa nach 2010 geboren wurde und die komplett mit den Technologien des 21. Jahrhunderts aufwachsen wird. Ihre Denk- und Lebensweise ist noch um ein vielfaches digitaler ausgeprägt, als es bereits bei den so genannten →Digital Natives der Fall ist. Diese Generation wird komplett geprägt durch die digitale Transformation der kompletten Gesellschaft, aber auch durch die Folgen der politischen Instabilität, dem demografischen Wandel sowie den Auswirkungen des Klimawandels.
Generation (Baby) Boomer
G wie Generation (Baby) Boomer
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation der Baby Boomer gehören die Geburtenjahrgänge 1945 bis Mitte der 1960-er Jahre. Der starke wirtschaftliche Aufschwung in den Nachkriegsjahren sowie hohe Wachstumsraten über einen längeren Zeitraum haben diese Generation geprägt. In diesen Zeitraum fallen nicht nur die Jahrgänge mit den höchsten Geburtenzahlen, sondern auch die Friedens- und Umweltbewegung sowie die Ölkrise. Diese werteorientierte Generation ist auf Leistungsdruck und Konkurrenzverhalten, Aufmerksamkeit und Respekt sowie Individualität fokussiert.
Generation Lockdown
G wie Generation Lockdown
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zu den bekannten →Generation Silent, →Generation Boomer, →Generation X, →Generation Y, →Generation Z →Generation Alpha kommt aufgrund der aktuellen Ereignisse ein neuer Generationenbegriff hinzu: die Generation Lockdown. Diese bezeichnet eine Gruppe von Menschen, die in der Covid-19-Pandemie (Corona) ihren Berufseinstieg im Jahr 2020 haben. Aufgrund der Pandemie wird es für Berufseinsteiger schwieriger, nach der Ausbildung oder dem Studium direkt einen Job zu finden.
Generation Silent
G wie Generation Silent
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation der Silent zählen die Geburtenjahrgänge Ende der 1920-er Jahre bis zum Ende des zweiten Weltkriegs. Die stille Generation wurde durch die Auswirkungen und Folgen des Krieges geprägt wie Unsicherheit, Vertreibung und große Entbehrungen. Der Begriff stille Generation hat seinen Ursprung darin, dass es vor allem im Dritten Reich gefährlich war, seine Gedanken offen auszusprechen.
Generation X
G wie Generation X
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Zur Generation X gehören die Geburtenjahrgänge Mitte der 1960-er Jahre bis 1980. Diese Generation wurde geprägt durch großen technischen Fortschritt, aber auch durch politische Blockbildung und Aufrüstung (Nato und Warschauer Pakt), die ersten Umweltkatastrophen (Tschernobyl) sowie die Thematisierung der Klimaveränderung (Ozonloch), der Integrationsprozess der EU, Konjunkturkrisen und eine wachsende Arbeitslosigkeit. Hinzu kamen steigende Scheidungsraten und die Entwicklung zu Doppelverdienern (in der Familie). Die Generation X ist allerdings auch die erste und aktuell einzige Generation ohne Kriegseinwirkung. Arbeit ist ein zentraler Lebensinhalt, wobei auch eine Orientierungslosigkeit die Generation der Slacker bestimmt.
Generation Y
G wie Generation Y
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Die Generation Y wird auch als Millennials oder Generation Why bezeichnet und umfasst die Geburtenjahrgänge von Anfang der 1980-er bis Mitte der 1990-er Jahre. Geprägt wurde sie durch die Terroranschläge vom 11. September sowie eine hohe und bis dahin nicht bekannte Jugendarbeitslosigkeit. Die damit verursachte Unsicherheit ist für diese Generation nichts unnormales. Anstelle von Status und Prestige steht die Freude an der Arbeit, Selbstverwirklichung und Freiräume sowie Freizeit im Vordergrund. Zur Generation Y gehören besonders viele →H.E.N.R.Y.’s – ein Kundensegment, dass sehr gut verdient. Des Weiteren ist die Generation Y die erste der so genannten →Digital Natives.
Generation Z
G wie Generation Z
Unter einer →Generation versteht man eine Gruppe von Menschen, die in einer Altersgruppe eine gemeinsame Prägung aufweisen, die durch historische und/oder kulturelle Erfahrungen eine zeitbezogene Ähnlichkeit haben. Diese drückt sich in einem gemeinsamen Lebensgefühl, Werte und Interessen und dgl. aus bzw. dessen Verständnis, welches diese Gruppe von Menschen teilt. Die Generation Z für Zoomer umfasst die Geburtenjahrgänge von Mitte/Ende der 1990-er Jahre bis 2010. Diese Generation ist mit dem Internet, mobilen Geräten (Tablets, Smartphones), digitalen Technologien und den sozialen Netzwerken groß geworden. Man bezeichnet diese Generation deshalb auch als →Digital Natives. Die Zoomer konzentrieren sich nur auf ihre eigenen persönlichen Ziele, was sie zu Einzelkämpfern und Individualisten macht. Die Lebenslust und die Maximierung von Erlebnissen treibt sie genauso an wie nicht festgelegte Strukturen und Abläufe. Soziale Netzwerke werden ohne Rücksichtnahme auf die eigene Privatsphäre extensiv genutzt. Dies zeigt sich auch dadurch, dass es in der Generation Z besonders viele →Smombie’s gibt – das Smartphone ist omnipräsent. Informationen und Wissen werden ausschließlich über das Internet konsumiert.
Geschäftsmodellinnovation
G wie Geschäftsmodellinnovation
Innovationen werden in vielen Unternehmen (immer noch) mit der technischen Entwicklung von Produkten gleichgesetzt. Mit Hilfe des Innovationsmanagements und eines klaren Innovationsprozesses werden die unterschiedlichen Stufen bei der Entwicklung neuer Produkte strukturiert und mit Hilfe eines Innovationscontrollings einem Review unterzogen. Der Prozess der Geschäftsmodellinnovation ist dagegen deutlich komplexer und umfasst je nach Unternehmensstruktur entweder die gesamte Organisation oder eine neue Business Unit. Häufig wird der Begriff Business Model Innovation verwendet, wenn Unternehmen bewusst ihr bestehendes und/oder gesamtes Geschäftsmodell überdenken, verändern und erneuern.
In der Regel beginnt dieser Prozess mit der Formulierung einer innovativen Value Proposition sowie anschließend der Entwicklung eines Vertriebsmodells und dessen Monetarisierung. Business Model Innovation definiert erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur inhaltlichen Entwicklung von innovativen Produkt- und/oder Prozesslösungen, Services und Dienstleistungen geht es bei der Business Model Innovation also vor allem um deren Monetarisierung. Selbst vermeintlich kleine Veränderungen im Geschäftsmodell wie z. B. die Umstellung der Monetarisierung (Leasing statt Kauf) können in bestimmten Branchen oder Marktsegmenten eine Business Model Innovation darstellen.
Findet dieser Prozess ausschließlich auf Basis von Daten statt, werden Business Model Innovation auch als digitale Geschäftsmodelle bezeichnet. Dabei verlagert sich die Integration selber immer mehr von der physischen in die virtuelle Welt und wird mit technischen Schnittstellen realisiert (API-Economy), so dass feste digitale Ökosysteme entstehen.
Zu häufig werden Business Model Innovation immer noch mit völlig neuen, revolutionären und disruptiven Geschäftsmodellen gleichgesetzt und krampfhaft versucht, einen „Blue Ocean“ zu kreieren. Dabei reicht es häufig, Bestehendes neu zu kombinieren oder aus Kundensicht zu akzentuieren und permanent iterativ zu optimieren. Wer die Maximalvorstellung seiner Bedarfsgruppen zum Benchmark erklärt – und nicht den Branchenstandard oder Best Practice des Marktführers – wird nicht nur innovativ sein, sondern erfolgreich innovieren. Dies belegen genügend positive (z. B. Apple, Amazon) wie auch mahnende Beispiele (z. B. Nokia, Kodak).
Business Model Innovation ist ein permanenter und iterativer Prozess, der in seinem Impact unterschiedlich stark ausgeprägt sein kann. Selbst kleine Veränderungen im Geschäftsmodell oder nur in dessen Monetarisierung können für den Kunden einen großen Nutzen auslösen und einen erheblichen Mehrwert bieten. Man muss also nicht zwangsläufig zum „Hacker“ seines eigenen Geschäftsmodell werden, um eine Geschäftsmodellinnovation zu entwickeln und erfolgreich zu vermarkten.
Eines der größten Probleme von Geschäftsmodellinnovationen ist, dass es trotz der Kenntnis der zahlreichen Vorteile, der Bereitschaft zur Veränderung und hohen Komplexität in der Implementierung von Business Model Innovation kaum Methoden und Tools existieren, um diese systemisch und systematisch planen, entwickeln und umsetzen zu können. Auf bewährte Methoden kann in der Regel nicht zurück gegriffen werden, da diese auf die Effizienz bestehender Geschäftsmodelle ausgerichtet sind. Und agile Arbeitsmethoden von Startups können auf traditionelle Unternehmen nicht übertragen werden.
Aus der bisherigen Erfahrung müssen Methoden zur Ideenfindung sowie Visualisierung und Bewertung von Geschäftsmodellinnovationen organisch entwickelt werden. Die so genannte Dynamic Capabilities – also Fähigkeiten von Unternehmen, interne und externe Kompetenzen zu integrieren, aufzubauen und neu zu konfigurieren – können nicht von außen entwickelt werden. Im Kontext von Innovationen gehören hierzu die Entwicklungs-, Kooperations- und Finanzierungsfähigkeit – sie sind das Herzstück der Innovationsfähigkeit von Unternehmen und Spiegelbild der Innovationskultur.
Grassroot-Innovation
G wie Grassroot-Innovation
Grassroot-Innovationen sind ein Synonym für →frugal Innovation. Sie stehen für Bottom-up-Lösungen aus innovativen Netzwerken von Aktivisten und Organisationen. Ein wesentliches Merkmal ist, dass diese nachhaltigen Entwicklungen auf die lokale Situation und Interessen und Werte der beteiligten Gemeinschaften eingehen.
Green Building
G wie Green Building
Green Building bezeichnet ein Gebäude unter dem ganzheitlichen Ansatz der Nachhaltigkeit über den kompletten Lebenszyklus, angefangen bei der Planung und Konstruktion über die Herstellung und Nutzung bis hin zur Wartung sowie der Umnutzung oder Demontage. Hierbei wird ein besonderer Fokus auf Ressourceneffizienz in den Bereichen Energie, Wasser und Material geachtet. Außerdem wird auf die Vermeidung von schädlichen Auswirkungen auf die Gesundheit der Menschen als Nutzer sowie auf die Umwelt geachtet. Hierzu gehören je nach Gebäudeart auch die Wohn- und Arbeitsqualität sowie die Integration in die Umgebung. Niedrigenergiehäuser, Solarhäuser, Passiv- oder Nullenergiehäuser werden z. B. der Kategorie Green Building zugeordnet. Da der Begriff Nachhaltigkeit zum Teil sehr inflationär und unscharf verwendet wird, hat die Enquête-Kommission des Deutschen Bundestages mit dem „Drei-Säulen-Modell“ den Begriff präzisiert. Demnach wird die Konzeption einer dauerhaft zukunftsfähigen Entwicklung der ökonomischen, ökologischen und sozialen Dimension menschlicher Existenz als nachhaltig bezeichnet. Mit diesen drei Dimensionen der Nachhaltigkeit wird im Wesentlichen ausgedrückt, dass u. a. kein Raubbau an der Natur betrieben wird und natürliche Lebensgrundlagen nur in dem Maße beansprucht werden wie diese sich regenerieren können. Dies umfasst in erster Linie den Erhalt der Biodiversität (Artenvielfalt), den Klimaschutz, die Pflege von Kultur- und Landschaftsräumen in ihrer ursprünglichen Gestalt sowie einen schonenden und umweltfreundlichen Umgang mit der natürlichen Umgebung. Hierzu gehört aber auch, dass eine Gesellschaft wirtschaftlich nicht über ihre Verhältnisse lebt und so organisiert sein soll, dass sich soziale Spannungen in Grenzen halten und Konflikte auf friedlichem Weg ausgetragen werden können. Neben sozialer Gerechtigkeit steht dieser Aspekt auch für humane Arbeitsplätze, Bildung und Qualifikation für die nachfolgende Generation. Je nach Perspektive kann oder muss Nachhaltigkeit global, national oder regional umgesetzt werden.
Der Bau- und Immobiliensektor verbraucht unter allen Wirtschaftszweigen mit fast einem Viertel die größten Energieressourcen und verursacht mit knapp der Hälfte die meisten Abfälle. Deshalb hat diese Branche eine besonders hohe Verantwortung und wird durch den „Green Deal“ der Europäischen Union (ein CO2-neutrales Europa bis 2050) in die Pflicht genommen. Die derzeitige Sanierungsquote von ca. 1 Prozent bei den Bestandsgebäuden soll mindestens verdoppelt werden. Insgesamt umfasst Green Building drei Handlungsfelder:
- Ressourceneffizienz und CO2-Neutralität von Bauwerken bei der Erstellung und Nutzung,
- Kreislaufwirtschaft,
- Planung und digitale Fertigung.
Um die Ziele des Green Deal zu erreichen, muss zu der herkömmlichen Bauweise ein Paradigmenwechsel stattfinden. Für einen ganzheitlichen und integralen Ansatz dient die Methode vom Gebäudelebenszyklus, damit der Ressourcenverbrauch durch aufeinander abgestimmte Prozesse reduziert werden kann. Mit der bisherigen Fragmentierung der Bauprozesse wird dies nicht gelingen. Der Paradigmenwechsel schließt historisch gewachsene und kulturell geprägte Arbeitsweisen genauso ein wie bestehende Geschäftsmodelle und rechtliche Fragestellungen. Gebäude nach dem Lebenszyklusansatz zu planen, zu konstruieren, zu bauen, zu unterhalten und rück- oder umzubauen bedeutet darüber hinaus Informationen und Daten über Jahrzehnte auf aktuellem Stand zu halten. Nur so werden die Voraussetzungen für eine funktionierende und nachhaltige Kreislaufwirtschaft geschaffen.
Ein Ansatz, um die ganzheitliche Nachhaltigkeit von Immobilien zu vergleichen, sind Gebäudezertifizierungen. Diese werden u. a. von der DGNB (Deutsche Gesellschaft für Nachhaltiges Bauen) oder LEED (Leadership in Energy and Environmental Design) durchgeführt. Neben der Klassifizierung von Gebäuden dienen diese auch dazu, Verbesserungspotentiale zu identifizieren. Hierbei werden keine Einzelmaßnahmen bewertet, sondern immer Ursache und Wirkungen von ökologischen, ökonomischen, sozialkulturellen und funktionalen Aspekten, bezogen auf den kompletten Lebenszyklus.
„Groupthink“-Phänomen
G wie „Groupthink“-Phänomen
Gruppendenken ist ein Prozess, bei dem der Wunsch nach einem breiten Konsens in einer Gruppe häufig zu schlechten oder realitätsfernen Entscheidungen führt. Daraus können Situationen entstehen, bei denen die Gruppe Handlungen oder Kompromissen zustimmt, die jedes einzelne Gruppenmitglied unter anderen Umständen ablehnen würde. Anstatt Einwände gegen sie zu erheben und eigene Standpunkte zu vertreten, besteht die Sorge, sich in der Gruppe zu isolieren und Zugehörigkeit zu verlieren oder andere verhaltens-psychologische Gründe sind ursächlich. Die Folge sind ein Schweigen und passives Akzeptieren dieser Entscheidungen. Dieses Groupthink-Phänomen wurde zuerst von Irving Janis untersucht, der verstehen wollte, warum Gruppen aus intelligenten und sachkundigen Menschen trotzdem schlecht überlegte Entscheidungen getroffen haben. Auslöser waren einige der größten Fiaskos der amerikanischen Außenpolitik, die Janis analysierte und mit erfolgreichen politischen Entscheidungen verglich. Die Fiaskos waren seiner Ansicht nach auf dysfunktionale Interaktionsmuster zurück zu führen, die er als Gruppendenken bezeichnete. Ursächlich waren für ihn neben einer hohen Gruppenkohäsion strukturelle Fehler der Organisation und ein provokativer situationaler Kontext. Diese Faktoren bewirken neben einem starken Streben nach Einmütigkeit verschiedene Symptome, die in drei Kategorien unterteilt werden:
- Kategorie wird als „Selbstüberschätzung der Gruppe“ bezeichnet
- Kategorie wird unter dem Begriff „Engstirnigkeit“ zusammengefasst
- Kategorie beschreibt das Ausüben von „Druck in Richtung Uniformität“
Diese Symptome wiederum bewirken insgesamt sieben Fehler im Entscheidungsprozess, wie z. B. die unvollständige Generierung und Prüfung von Handlungsalternativen und die Unterschätzung von Risiken der präferierten Alternative. Um dem Groupthink-Phänomen entgegen zu treten, wurden einige Techniken entwickelt wie z. B. die nominale Gruppentechnik, die Delphi-Methode, die Einführung eines Teufels-Advokaten, die Verwendung von heterogenen Gruppen und das Heranziehen von externen Experten. Allerdings kann Gruppendenken nicht komplett verhindert werden, da es eine tief verwurzelte Eigenschaft der Menschen ist.
Growth Hacking
G wie Growth Hacking
Den Begriff Growth Hacking prägte 2010 Sean Ellis. Er beschreibt eine Marketingtechnik, die mit Kreativität, analytischem Denken und dem Einsatz von neuen Medien darauf abzielt, den Absatz zu fördern und die Bekanntheit zu steigern. Es geht um skalierbares Wachstum eines Unternehmens durch bestimmte Taktiken („Hacks“), bei dem Elemente aus dem Onlinemarketing (z. B. virale Kampagnen, E-Mail-Marketing, Analytics, SEO und SEA etc.) zum Einsatz kommen. Deshalb wird Growth Hacking auch häufig als Wachstumsmarketing bezeichnet. Ein Growth Hacker konzentriert sich auf Akquisition (Leadgenerierung), Aktivierung (Kundengewinnung und -bindung), Monetarisierung (Kaufabschluss) sowie Multiplikation (Weiterempfehlung an andere User). Growth Hacker haben vor allem die Kostenminimierung im Fokus und den Einsatz innovativer Alternativen zu traditioneller Werbung. Daher wird Growth Hacking häufig von Startups eingesetzt. Das Thema Marketing wird bei jungen Unternehmen im Dreiklang aus Innovation, Skalierbarkeit und Kundenzentrierung gesehen. Dabei unterscheidet Growth Hacking zwischen Produktdesign, Produkteffektivität und Marketing. Das Konzept sieht vor, mögliches Wachstum durch Leadgenerierung und Kundengewinnung, Monetarisierung und Skalierung sowie Kundenbeziehung und Geschäftsmodell in das eigentliche Produkt zu integrieren. Erfolgreiches Growth Hacking entwickelt kein Marketing um das Produkt herum, sondern integriert dieses im Produkt. Denn beim Growth Hacking geht es ausschließlich um Unternehmenswachstum. Andere Aspekte wie z. B. das Image oder der Bekanntheitsgrad werden vernachlässigt. Neukunden erfahren über ihr Netzwerk von einem Produkt oder einer Dienstleistung, nehmen dies in Anspruch und geben die Erfahrung weiter. Dieser Kreislauf aus Aufmerksamkeit, Anwendung und Weitergeben an andere verursacht exponentielles Wachstum, gerade für Startups aber auch für etablierte Unternehmen.
H wie Hackathon
H wie Hackathon
Hackathons stellen ein modernes Instrument im Innovationsmanagement dar und erfreuen sich einer immer größer werdenden Beliebtheit. Der Begriff setzt sich zusammen aus den Worten Hack und Marathon, wobei sich Hack auf das englische „to hack“ (= „tüfteln“) und Marathon auf die Intensität und Dauer der Veranstaltung bezieht. Seinen Ursprung hat der Hackathon im Bereich der Soft- und Hardwareentwicklung. Mittlerweile wird das Konzept aber auch in anderen Branchen zur Entwicklung von innovativen Lösungen erfolgreich angewendet. Im Kern geht es bei einem Hackathon darum, dass in kurzer Zeit Lösungen für schwierige Probleme erarbeitet oder innovative Produkte und Services entwickelt werden. Ein Hackathon dauert zwischen 24 und 48 Stunden, die ganz im Zeichen eines bestimmten Themas oder einer Herausforderung stehen. Die Teilnehmer finden sich in kleinen Gruppen zusammen und entwickeln in einer lockeren Atmosphäre, in der kreatives Denken gefördert wird, innovative Lösungsansätze. Am Ende des Hackathons steht ein fertiger Prototyp für ein innovatives Produkt, Service oder Geschäftsmodell.
Hackathons können in unterschiedlichen Formaten und auf verschiedenste Arten umgesetzt werden. Ein richtig oder falsch oder eine Schablone für einen erfolgreichen Hackathon gibt es nicht. Wichtig ist allerdings deren Zielsetzung und Besetzung. Bevor der Hackathon stattfinden kann, muss zunächst die Challenge spezifiziert werden. Auf der Grundlage erfolgt dann die Suche und Auswahl der passenden Experten. Die einzelnen Gruppen setzen sich je Aufgabenstellung aus Branchenexperten, Digitalexperten, Lead-Usern, Zukunftsforscher, Experten der Kreativwirtschaft, Startups und Innovationsagenturen, Universitäten und dgl. sowie Mitarbeitern aus dem eigenen Unternehmen zusammen. Nach der Ideengenerierung und der Entwicklung eines ersten Prototypen beginnt die iterative Phase mit Präsentation und Feedback der Teilnehmer. Typisch für einen Hackathon ist, dass mehrere Prototypen gebaut und wieder verworfen werden, bis eine finale Lösung entwickelt wird. Anschließend erarbeiten die Teilnehmer auf der Basis ein erstes Geschäftsmodell. Am Ende des Hackathons pitchen die Gruppen ihre finalen Ideen, Konzepte und Prototypen inklusive des dazugehörigen Businessplans.
Ein Hackathon ist eine kreative Art der Problemlösung, bei der herkömmliche Regeln ausgeklammert werden. Die Aktivitäten finden entweder physisch und/oder virtuell statt; in der Regel an 2 maximal 3 Tagen. Nicht selten wird bis spät in die Nacht gearbeitet. Diese Art von Event hat mehrere Ziele: die involvierte Community zu stärken und einen starken Teamspirit zu bilden, neue Experten zu gewinnen und den Teilnehmern die Möglichkeit zu bieten, etwas Neues zu lernen und agile Methoden anzuwenden. Sie sind gut geeignet um Dynamik in die verfügbaren Innovationsressourcen zu bringen, schnelle Entwicklung und echte Demos von Dienstleistungen/Produktideen zu erreichen.
H wie Hauschildts Modell
Der deutsche Wirtschaftswissenschafter Jürgen Hauschildt definiert Innovation als eine neuartige Kombination aus Zweck und Mittel. Auf der einen Seite stehen die Mittel wie das Lösungsprinzip sowie die Technologie als Angebot neuer Problemlösungen durch innovative Ideen. Auf der anderen Seite steht der Zweck wie die Kundenbedürfnisse, der Mehrwert aus Kundenperspektive sowie die Anwendung. Hauschildts Modell stellt somit eine Erweiterung des bisherigen →Innovationsgrades dar. Er unterscheidet vier Innovationsgrade:
- Inkrementelle Innovation: Verbesserung eines vorhandenen Zwecks mit vorhandenen Methoden. Der Innovationsgrad ist sehr niedrig, da lediglich geringfügige Veränderungen an bestehenden Produkten, Prozessen oder Geschäftsmodellen durchgeführt werden.
- Mittelinduzierte Innovation: Es werden neue Mittel zur Erfüllung vorhandener oder neuer Zwecke angeboten. Mittelinduzierte Innovationen basieren überwiegend auf den F&E-Aktivitäten eines Unternehmens, die im Vergleich zu zweckinduzierten Innovationen oft einen höheren Innovationsgrad aufweisen.
- Zweckinduzierte Innovation: Es entsteht ein neuer Zweck, der mit unveränderten oder neuen Mitteln erfüllt wird. Ausgelöst werden zweckinduzierte Innovationen häufig durch die Bedürfnisse oder die Nachfrage der Kunden am Markt. Der Innovationsgrad ist hier im mittleren Bereich angesiedelt.
- Durchbruchinnovation: Diese Innovationen sind dadurch charakterisiert, dass über neue Technologien ein bisher nicht gekanntes Bedürfnis mit hohem Nutzen für den Kunden gedeckt wird. Durchbruchsinnovationen weisen einen sehr hohen Innovationsgrad auf und werden auch als disruptive Innovationen bezeichnet. Sie haben ihren Ausgangspunkt oft in einer kaum erkannten Nische und sprechen zunächst nur einen kleinen Kundenkreis an, bevor sie zu einem dominierenden Marktfaktor werden und etablierte Unternehmen vom Markt verdrängen.
Mit steigendem Innovationsgrad steigt der Zeitaufwand und Ressourcenverbrauch, gleichzeitig wächst das Risiko des Scheiterns überproportional. Kostenhöhe und Kostenstruktur sprengen in der Regel herkömmliche Vorstellungen des Controllings und erfordern eine höhere Risikobereitschaft und höhere Finanzierungspotentiale. Aus diesem Grund werden zunehmend Scoring-Modelle eingesetzt, um über eine mehrdimensionale Analyse den Innovationsgrad zu bestimmen.
H wie HiPPO-Prinzip (oder Effekt)
HiPPO ist ein Akronym für Highest Paid Person’s Opinion. Das nach ihm benannte Prinzip besagt, dass die Meinung der bestbezahlten Person bei einer Entscheidung mehr Beachtung findet oder am Ende sich durchsetzt, weil dieser per se ein höherer Stellenwert eingeräumt wird. Einfach ausgedrückt: Je höher das Gehalt, desto wichtiger die Meinung. Oder anders ausgedrückt: „Gemacht wird, was derjenige mit dem höchsten Gehalt sagt – kurzum: bei Entscheidungen setzt sich immer der Chef durch“. Es handelt sich um eine altehrwürdige Art, Entscheidungen zu treffen, die Jahrhunderte zurückreichen. Der Begriff tauchte 2007 erstmalig auf. Das HiPPO-Prinzip tritt besonders häufig auf, wenn es keine validen Daten gibt, die eine Entscheidung maßgeblich determinieren.
Um dem HiPPO-Effekt entgegen zu wirken, werden gerne evidenzbasierte und/oder kooperative Entscheidungsformate verwendet wie z. B. MVP, Design Thinking oder auch Gamification und Brain-Dumping. Diese und ähnliche Techniken helfen, Entscheidungen in Projekten oder bei Entwicklungen gemeinsam zu treffen. Sollten diese Maßnahmen nicht greifen, bleibt je nach Unternehmenskultur häufig nur die Möglichkeit der bewussten Konfrontation mit dem HiPPO oder die klare Benennung des HiPPO-Effekts und des Authority Bias und seiner Konsequenzen. Diese sollten im Vorfeld genau abgewogen werden, denn HiPPOs können egozentrisch, laut und unsachlich sein und weisen nicht selten narzisstische Züge auf. Große Debatten und/oder detailverliebte Diskussionen verärgern sie. Die Frage, wer der HiPPO in einem Meeting ist, lässt sich nicht immer sofort bestimmen, da über Gehälter in der Regel Stillschweigen vereinbart ist und der CEO oder Geschäftsführer nicht zwangsläufig die bestbezahlte Person im Raum sein muss. Schon gar nicht, wenn sich in einem Meeting mehrere Top-Manager aus unterschiedlichen Unternehmen befinden. Der HiPPO-Effekt kann unter Umständen temporär sein, wenn sich die Zusammensetzung von Meetings verändert. Für den HiPPO-Effekt ist dies aber nicht relevant, denn dieser basiert auf dem so genannten „Authority Bias“. Menschen haben die Tendenz, der Meinung einer Autorität eine höhere Bedeutung zu geben und sich stärker von dieser beeinflussen zu lassen. Diese Manipulation wird auch als kognitive Verzerrung bezeichnet.
Die Folgen des HiPPO-Effekts können gravierend sein und unmittelbare Auswirkungen auf den Erfolg eines Projektes oder mittelbar auf die Unternehmensentwicklung. So können z. B. Marktanalysen und Kundenbefragungen negiert werden und somit falsche Schlussfolgerungen gezogen werden, so dass ggf. Ziele falsch definiert und Projekte falsch aufgesetzt oder das Team falsch besetzt werden. Ziele können infolgedessen subjektiv definiert und formuliert, Prioritäten falsch gesetzt, Best Practices ignoriert, Entscheidungen falsch getroffen und schlimmstenfalls Produkte und Services an Kundenbedürfnissen vorbei entwickelt werden. Darüber hinaus kann die Motivation der Teams sinken, was in der Regel Auswirkungen auf das Selbstmanagement von Teams hat und Bereichsdenken fördert. Nicht selten ist in HiPPO-geprägten Unternehmen eine starke Fluktuation von Mitarbeitern zu beobachten. Der HiPPO-Effekt kann allerdings auch positive Auswirkungen haben, wenn diese Person ihre Rolle als Servant Leader interpretiert und der Organisation Führung und Struktur und somit Orientierung gibt. Entscheidungen von HiPPOs können auch Veränderungen innerhalb einer Organisation zum Wohle der Mitarbeiter herbeiführen, Transparenz erhöhen und agile Methoden fördern. Infolgedessen ist entscheidend, wie der HiPPO seine Rolle definiert.
Hackathon
H wie Hackathon
Hackathons stellen ein modernes Instrument im Innovationsmanagement dar und erfreuen sich einer immer größer werdenden Beliebtheit. Der Begriff setzt sich zusammen aus den Worten Hack und Marathon, wobei sich Hack auf das englische „to hack“ (= „tüfteln“) und Marathon auf die Intensität und Dauer der Veranstaltung bezieht. Seinen Ursprung hat der Hackathon im Bereich der Soft- und Hardwareentwicklung. Mittlerweile wird das Konzept aber auch in anderen Branchen zur Entwicklung von innovativen Lösungen erfolgreich angewendet. Im Kern geht es bei einem Hackathon darum, dass in kurzer Zeit Lösungen für schwierige Probleme erarbeitet oder innovative Produkte und Services entwickelt werden. Ein Hackathon dauert zwischen 24 und 48 Stunden, die ganz im Zeichen eines bestimmten Themas oder einer Herausforderung stehen. Die Teilnehmer finden sich in kleinen Gruppen zusammen und entwickeln in einer lockeren Atmosphäre, in der kreatives Denken gefördert wird, innovative Lösungsansätze. Am Ende des Hackathons steht ein fertiger Prototyp für ein innovatives Produkt, Service oder Geschäftsmodell.
Hackathons können in unterschiedlichen Formaten und auf verschiedenste Arten umgesetzt werden. Ein richtig oder falsch oder eine Schablone für einen erfolgreichen Hackathon gibt es nicht. Wichtig ist allerdings deren Zielsetzung und Besetzung. Bevor der Hackathon stattfinden kann, muss zunächst die Challenge spezifiziert werden. Auf der Grundlage erfolgt dann die Suche und Auswahl der passenden Experten. Die einzelnen Gruppen setzen sich je Aufgabenstellung aus Branchenexperten, Digitalexperten, Lead-Usern, Zukunftsforscher, Experten der Kreativwirtschaft, Startups und Innovationsagenturen, Universitäten und dgl. sowie Mitarbeitern aus dem eigenen Unternehmen zusammen. Nach der Ideengenerierung und der Entwicklung eines ersten Prototypen beginnt die iterative Phase mit Präsentation und Feedback der Teilnehmer. Typisch für einen Hackathon ist, dass mehrere Prototypen gebaut und wieder verworfen werden, bis eine finale Lösung entwickelt wird. Anschließend erarbeiten die Teilnehmer auf der Basis ein erstes Geschäftsmodell. Am Ende des Hackathons pitchen die Gruppen ihre finalen Ideen, Konzepte und Prototypen inklusive des dazugehörigen Businessplans.
Ein Hackathon ist eine kreative Art der Problemlösung, bei der herkömmliche Regeln ausgeklammert werden. Die Aktivitäten finden entweder physisch und/oder virtuell statt; in der Regel an 2 maximal 3 Tagen. Nicht selten wird bis spät in die Nacht gearbeitet. Diese Art von Event hat mehrere Ziele: die involvierte Community zu stärken und einen starken Teamspirit zu bilden, neue Experten zu gewinnen und den Teilnehmern die Möglichkeit zu bieten, etwas Neues zu lernen und agile Methoden anzuwenden. Sie sind gut geeignet um Dynamik in die verfügbaren Innovationsressourcen zu bringen, schnelle Entwicklung und echte Demos von Dienstleistungen/Produktideen zu erreichen.
Hauschildts Modell
H wie Hauschildts Modell
Der deutsche Wirtschaftswissenschafter Jürgen Hauschildt definiert Innovation als eine neuartige Kombination aus Zweck und Mittel. Auf der einen Seite stehen die Mittel wie das Lösungsprinzip sowie die Technologie als Angebot neuer Problemlösungen durch innovative Ideen. Auf der anderen Seite steht der Zweck wie die Kundenbedürfnisse, der Mehrwert aus Kundenperspektive sowie die Anwendung. Hauschildts Modell stellt somit eine Erweiterung des bisherigen →Innovationsgrades dar. Er unterscheidet vier Innovationsgrade:
- Inkrementelle Innovation: Verbesserung eines vorhandenen Zwecks mit vorhandenen Methoden. Der Innovationsgrad ist sehr niedrig, da lediglich geringfügige Veränderungen an bestehenden Produkten, Prozessen oder Geschäftsmodellen durchgeführt werden.
- Mittelinduzierte Innovation: Es werden neue Mittel zur Erfüllung vorhandener oder neuer Zwecke angeboten. Mittelinduzierte Innovationen basieren überwiegend auf den F&E-Aktivitäten eines Unternehmens, die im Vergleich zu zweckinduzierten Innovationen oft einen höheren Innovationsgrad aufweisen.
- Zweckinduzierte Innovation: Es entsteht ein neuer Zweck, der mit unveränderten oder neuen Mitteln erfüllt wird. Ausgelöst werden zweckinduzierte Innovationen häufig durch die Bedürfnisse oder die Nachfrage der Kunden am Markt. Der Innovationsgrad ist hier im mittleren Bereich angesiedelt.
- Durchbruchinnovation: Diese Innovationen sind dadurch charakterisiert, dass über neue Technologien ein bisher nicht gekanntes Bedürfnis mit hohem Nutzen für den Kunden gedeckt wird. Durchbruchsinnovationen weisen einen sehr hohen Innovationsgrad auf und werden auch als disruptive Innovationen bezeichnet. Sie haben ihren Ausgangspunkt oft in einer kaum erkannten Nische und sprechen zunächst nur einen kleinen Kundenkreis an, bevor sie zu einem dominierenden Marktfaktor werden und etablierte Unternehmen vom Markt verdrängen.
Mit steigendem Innovationsgrad steigt der Zeitaufwand und Ressourcenverbrauch, gleichzeitig wächst das Risiko des Scheiterns überproportional. Kostenhöhe und Kostenstruktur sprengen in der Regel herkömmliche Vorstellungen des Controllings und erfordern eine höhere Risikobereitschaft und höhere Finanzierungspotentiale. Aus diesem Grund werden zunehmend Scoring-Modelle eingesetzt, um über eine mehrdimensionale Analyse den Innovationsgrad zu bestimmen.
HiPPO-Prinzip (oder Effekt)
H wie HiPPO-Prinzip (oder Effekt)
HiPPO ist ein Akronym für Highest Paid Person’s Opinion. Das nach ihm benannte Prinzip besagt, dass die Meinung der bestbezahlten Person bei einer Entscheidung mehr Beachtung findet oder am Ende sich durchsetzt, weil dieser per se ein höherer Stellenwert eingeräumt wird. Einfach ausgedrückt: Je höher das Gehalt, desto wichtiger die Meinung. Oder anders ausgedrückt: „Gemacht wird, was derjenige mit dem höchsten Gehalt sagt – kurzum: bei Entscheidungen setzt sich immer der Chef durch“. Es handelt sich um eine altehrwürdige Art, Entscheidungen zu treffen, die Jahrhunderte zurückreichen. Der Begriff tauchte 2007 erstmalig auf. Das HiPPO-Prinzip tritt besonders häufig auf, wenn es keine validen Daten gibt, die eine Entscheidung maßgeblich determinieren.
Um dem HiPPO-Effekt entgegen zu wirken, werden gerne evidenzbasierte und/oder kooperative Entscheidungsformate verwendet wie z. B. MVP, Design Thinking oder auch Gamification und Brain-Dumping. Diese und ähnliche Techniken helfen, Entscheidungen in Projekten oder bei Entwicklungen gemeinsam zu treffen. Sollten diese Maßnahmen nicht greifen, bleibt je nach Unternehmenskultur häufig nur die Möglichkeit der bewussten Konfrontation mit dem HiPPO oder die klare Benennung des HiPPO-Effekts und des Authority Bias und seiner Konsequenzen. Diese sollten im Vorfeld genau abgewogen werden, denn HiPPOs können egozentrisch, laut und unsachlich sein und weisen nicht selten narzisstische Züge auf. Große Debatten und/oder detailverliebte Diskussionen verärgern sie. Die Frage, wer der HiPPO in einem Meeting ist, lässt sich nicht immer sofort bestimmen, da über Gehälter in der Regel Stillschweigen vereinbart ist und der CEO oder Geschäftsführer nicht zwangsläufig die bestbezahlte Person im Raum sein muss. Schon gar nicht, wenn sich in einem Meeting mehrere Top-Manager aus unterschiedlichen Unternehmen befinden. Der HiPPO-Effekt kann unter Umständen temporär sein, wenn sich die Zusammensetzung von Meetings verändert. Für den HiPPO-Effekt ist dies aber nicht relevant, denn dieser basiert auf dem so genannten „Authority Bias“. Menschen haben die Tendenz, der Meinung einer Autorität eine höhere Bedeutung zu geben und sich stärker von dieser beeinflussen zu lassen. Diese Manipulation wird auch als kognitive Verzerrung bezeichnet.
Die Folgen des HiPPO-Effekts können gravierend sein und unmittelbare Auswirkungen auf den Erfolg eines Projektes oder mittelbar auf die Unternehmensentwicklung. So können z. B. Marktanalysen und Kundenbefragungen negiert werden und somit falsche Schlussfolgerungen gezogen werden, so dass ggf. Ziele falsch definiert und Projekte falsch aufgesetzt oder das Team falsch besetzt werden. Ziele können infolgedessen subjektiv definiert und formuliert, Prioritäten falsch gesetzt, Best Practices ignoriert, Entscheidungen falsch getroffen und schlimmstenfalls Produkte und Services an Kundenbedürfnissen vorbei entwickelt werden. Darüber hinaus kann die Motivation der Teams sinken, was in der Regel Auswirkungen auf das Selbstmanagement von Teams hat und Bereichsdenken fördert. Nicht selten ist in HiPPO-geprägten Unternehmen eine starke Fluktuation von Mitarbeitern zu beobachten. Der HiPPO-Effekt kann allerdings auch positive Auswirkungen haben, wenn diese Person ihre Rolle als Servant Leader interpretiert und der Organisation Führung und Struktur und somit Orientierung gibt. Entscheidungen von HiPPOs können auch Veränderungen innerhalb einer Organisation zum Wohle der Mitarbeiter herbeiführen, Transparenz erhöhen und agile Methoden fördern. Infolgedessen ist entscheidend, wie der HiPPO seine Rolle definiert.
I wie Identity of things (IDoT)
I wie Identity of things (IDoT)
Die Identity of Things (IDoT) ist ein wesentlicher Bestandteil des →Internet of Things (IoT). Erst mit der exakten Adressierbarkeit wird das gezielte Suchen und Auffinden von Dingen im Internet ermöglicht. Ein „Ding“ kann in diesem Zusammenhang jede Entität sein, einschließlich physischer und logischer Objekte, die eine eindeutige Kennung und die Fähigkeit hat, Daten über ein Netzwerk zu übertragen. Diese Entität muss global eindeutig identifizierbar sein. Die Identität der Dinge stellt dies sicher und weist den Dingen wie Geräten und Objekten eindeutige Kennungen (UID) mit den dazugehörigen Metadaten zu. Dies ist die Voraussetzung dafür, dass sich diese mit anderen Dingen über das Internet verbinden und effektiv mit ihnen online kommunizieren können. Angaben zu den Identitäten von IoT-Dingen gehören z. B. der Lebenszyklus. Des Weiteren ist der Beziehungsstatus interessant, also die Informationen, mit welchen anderen Dingen oder Entitäten eine Verbindung besteht. Denn neben anderen Geräten oder Objekten können auch Beziehungen zu Administratoren und anderen Verantwortlichkeiten bestehen. Durch den Einsatz und Einfluss von →Künstlicher Intelligenz spielt auch der Kontext eine immer wichtigere Rolle. Das Identitäts- und Zugriffsmanagement für IoT-Entitäten muss kontextabhängig sein. Der Zugriff z. B. für eine Entität kann unter bestimmten Umständen angemessen sein; der Zugriff auf eine andere Entität dagegen unangemessen oder sogar gefährlich sein. Ein Problem stellt aktuell noch die Authentifizierung dar. Während eine multifunktionale Authentifizierung beim Menschen funktioniert, ist dies für IoT-Dinge noch nicht anwendbar, da viele Methoden wie z. B. die biometrische Verifizierung nicht relevant sind.
I wie IFC-Format
Bekanntlich können proprietäre Dateiformate nur von spezifischen und/oder autorisierten Softwares gelesen werden. Für einen offenen Austausch von Daten ohne Einschränkungen im Zugriff und/oder der Implementierung, wie dies für die Abwicklung von →BIM (Building Information Modeling) Objekten notwendig ist, sind diese ungeeignet. Aus diesem Grund wurde das IFC-Format (Industry Foundation Classes) entwickelt, um einen offenen Datenaustausch und -zugriff sicher zu stellen. Hierbei handelt es sich um einen offiziellen und internationalen Standard ISO 16739:2013 in Form einer herstellerneutralen „Sprache“ zum Austausch von Modelldaten. Für alle in der Bau- und Immobilienbranche gängigen Objekte wurde ein eigenes Format (IFC Objekttyp) definiert. Dieses umfasst einen festgelegten Datensatz an im Minimum notwendigen Informationen, damit die in den Modelldaten „verbauten“ Objekte bei der Übergabe von allen (CAD) Programmen gleichermaßen verstanden und interpretiert werden können. IFC-Formate wie z. B. IFC-SPF, IFC-XML, IFC-ZIP) umfassen geometrische und nicht-geometrische Einheiten, enthalten die Gebäudegeometrie und mit den Elementen verbundenen Daten.
I wie Immersiv
Der Begriff „immersiv“ taucht zunehmend im Zusammenhang mit →augmented Reality und/oder →virtual Reality auf und beschreibt den Effekt, den virtuelle oder fiktionale Welten auf den Betrachter haben. Seine Wahrnehmung in der realen Welt reduziert sich und gleichzeitig nimmt die Identifikation mit der virtuellen oder fiktiven Welt zu. Der Nutzer taucht quasi komplett in die Scheinwelt ein, was die Herkunft des englischen Begriffes „immersion“ (auf Deutsch so viel wie „Eintauchen“ oder „Vertiefung in eine Sache“) erklärt. Der Begriff darf nicht mit der Faszination verwechselt werden, die teilweise auch bei 3D Filmen oder 3D Animationen entstehen kann. Diese passive Form der Immersion ist nicht vergleichbar mit einer Interaktion in einer virtuellen Umgebung, wodurch eine wesentlich höhere Intensität der Immersion erreicht werden kann. Der Begriff immersiv taucht deshalb zunehmend im Zusammenhang mit Gamification auf. Ist der Grad an interaktiven Immersion besonders hoch, wird auch von der „Präsenz“ und dem „immersive virtual environment“ gesprochen. Typische Effekte sind z. B. ein besonders realistisches Verhalten von computergesteuerten Figuren, ein hoher grafischer Detailgrad, pseudoreale Darstellungen, vielfältige Möglichkeiten mit der Umgebung zu interagieren sowie eine hohe Stimmigkeit der fiktiven Umgebung. Die Geschlossenheit der simulierten Illusion führt zu dieser hohen Identifizierung mit der virtuellen Welt.
I wie Indifferente
→Net Promoter Score (NPS)
I wie Industrie 4.0
Der Begriff „Industrie 4.0“ beschreibt die vierte Stufe der industriellen Revolution. Während die 1. Stufe für die Einführung mechanischer Produktionsanlagen mithilfe von Wasser- und Dampfkraft stand, die 2. Stufe für die Einführung arbeitsteiliger Massenproduktion mithilfe von elektrischer Energie und die 3. Stufe für den Einsatz von Informationstechnologien und Automatisierung, beschreibt die 4. Stufe die Vernetzung der traditionellen Industrie mit internetbasierten Technologien aus den Bereichen der Informations- und Kommunikationstechnik. Man bezeichnet die 4. Stufe daher oft auch als digitale Transformation. Hierzu gehören das Internet wie IPv6, →Internet of Things usw., Hardware wie Smart Devices, →Cloud Computing, →Augmented Reality usw., eingebettete Mikrosysteme wie Mikroprozessoren und -sensoren, Software und semantische und Big-Data-Technologien sowie Kommunikation wie 5G, WiFi, Near Field Communication usw. Innovationen in diesem Bereich bilden die Grundlage für das →Internet of Everything (IoX), in dem Dinge, Daten, Menschen, Services und anderes untereinander vernetzt sind und miteinander kommunizieren können. Industrie 4.0 führt zu einer grundlegenden Transformation von Produkten, Services, Produktions- und Wertschöpfungsprozessen und somit der kompletten Industrie. Längst geht es bei Industrie 4.0 nicht mehr nur um die digitale Transformation der internen Prozesse, sondern auch um die smarte Vernetzung von Geschäftsprozessen bis hin zu komplett neuen Businessmodellen, die in letzter Konsequenz zu einem ganzheitlichen und nachhaltigen →E-Business führen.
I wie Industrie 5.0
Der Begriff →Industrie 4.0 ist gerade einmal zehn Jahre alt und schon taucht mit „Industrie 5.0“ ein neuer Begriff auf. Ein Begriff, der suggeriert, dass die vierte industrielle Revolution bereits abgeschlossen und reif für die nächste Evolutionsstufe ist. Die Realität sieht anders aus: ein Großteil der Unternehmen ist immer noch nicht in der Industrie 4.0 angekommen. Das, was allgemein unter Industrie 4.0 verstanden wird, verdient bestenfalls die Bezeichnung 3.5. In der Industrie 4.0 ermöglichen so genannte →cyber-physische Systeme intelligente Anwendungen und eine allumfassende Transparenz. Infolgedessen können hoch effiziente, auf Daten basierte Entscheidungen in allen unternehmensrelevanten Bereichen getroffen werden. Einen umfassenden digitalen Zwilling in einer komplexen Umgebung zu modellieren und zu kontrollieren, der sich ständig verändert und weiterentwickelt, ist die Herausforderung der Industrie 4.0. Daher wird der Begriff Industrie 5.0 mehr synonym verwendet für eine Industrie, die über reine Effizienz und Produktivität hinausgeht und für Nachhaltigkeit und Resilienz steht. Sie rückt den Menschen wieder mehr in den Mittelpunkt und misst sich an den Beitrag des Unternehmens für Umwelt und Gesellschaft. Infolgedessen werden digitale Transformation und künstliche Intelligenz mit modernen Führungsqualitäten kombiniert.
I wie Infrastructure as a Service“ (IaaS)
Der Begriff „Infrastructure as a Service“ (IaaS) beschreibt eine Dienstleistung des →Cloud-Computing, bei dem Unternehmen über das Internet der Zugriff auf eine sofort nutzbare, hochgradig skalierbare IT-Infrastruktur angeboten wird. Hierzu betreibt der Anbieter eigene Rechenzentren, in denen entsprechende Hardware gelagert, administriert und gewartet wird. Somit können Anbieter von IaaS-Lösungen den Zugriff auf Rechenleistung (Prozessor, Arbeitsspeicher, Festplattenspeicher und dgl.) und komplette Netzwerkstrukturen (inklusive Firewalls, Routern und Sicherheits-/Back-up-Systemen) sicherstellen. Diese grundlegenden IT-Infrastruktur-Bausteine werden in Form virtueller Maschinen (VM) oder Virtual Local Area Networks (VLANs) zur Verfügung gestellt. Der Kunde greift auf diese Cloud-Ressourcen via APIs über das Internet zu und entscheidet über den Umfang der in Anspruch genommenen Ressourcen (Server, Router, Firewalls usw.) und deren Leistungsdaten (CPU, RAM etc.). Somit stellen IaaS-Lösungen eine Alternative zu internen Ressourcen dar, da für deren Management keine eigene Infrastruktur benötigt wird. Die gesamte Administration sowie der Service fallen in den Aufgabenbereich des Anbieters. Hierzu gehören neben dem Aufbau, der Instandhaltung und regelmäßigen Modernisierung der Infrastruktur die Absicherung des Rechenzentrums gegen äußere Einflüsse, die Bereitstellung von Rechenleistung und Speicherplatz sowie den Zugang, damit Kunden auf die offerierten IaaS-Ressourcen zugreifen und diese administrieren können. Diese lassen sich je nach Bedarf jederzeit hoch- oder herunterskalieren. Diese hohe Flexibilität resultiert daraus, dass IaaS-Angebote nicht an dedizierte Hardware gebunden sind, so dass der Anbieter die Ressourcen seiner Rechenzentren jederzeit bedarfsoptimiert unter seinen Kunden aufteilen kann. Die Abrechnung erfolgt über das Pay-per-Use-Verfahren, bei dem Kunden nur das bezahlen, was sie tatsächlich genutzt haben. Infrastructure-as-a-Service funktioniert nach dem Shared-Responsibility-Prinzip (dt. Prinzip der geteilten Verantwortung). Sowohl der Anbieter als auch der Kunde haben unterschiedliche Aufgabenbereiche und Zuständigkeiten, damit die Ressourcen optimal bereitgestellt und/oder genutzt werden können.
I wie Inkrementelle Innovation
Kleinere Neuerungen wie z. B. die Verbesserung von Produkteigenschaften oder die Entwicklung neuer Produkt-Features, die Erweiterung von Anwendungen oder Einsparung von Zeit und/oder Kosten in der Applikation, die Veränderung von Prozessen und Abläufen im Sinne höherer Effizienz usw. werden als Produktmodifikation bezeichnet. Größere Veränderungen und Entwicklungen mit einem hohen Grad an Neuigkeit, Alleinstellungsmerkmale und der Bereitschaft der Bedarfsgruppen, höhere Preise zu zahlen, werden als inkrementelle Innovation bezeichnet. Diese sind gekennzeichnet dadurch, dass sie innerhalb eines bestehenden Sortimentes, Marktsegmentes und/oder Bedarfsgruppe einen Mehrwert bieten, aber auf der Basis des bisherigen Markt- oder Geschäftsmodells.
Bei der inkrementellen Innovation geht es mindestens darum, Produkte und Dienstleistungen durch zusätzliche Eigenschaften anzureichern, die aus Sicht der Bedarfsgruppen einen Mehrwert darstellen. Dies müssen nicht zwangsläufig technische Features sein, sondern können sich auch auf Prozesse beziehen oder Bedarfsgruppen als Unternehmer unterstützen, um erfolgreich zu sein. Für inkrementelle Innovationen hat sich über Jahre der klassische Stage-Gate-Prozess bewährt, dem häufig ein Ideenmanagement vorgeschaltet ist.
Aufgrund der parallel stattfindenden Transformation in Unternehmen reicht dieser längst nicht mehr aus. Für heute noch eher produktorientierte Unternehmen wird daher das House of Innovation eingesetzt, um das klassische Innovationsmanagement zu professionalisieren. Hierbei hat sich bewährt, die operative Innovationssteuerung mit dem strategischen Innovationsmanagement zu kombinieren und nach einem definierten Zeitraum ein Review durchzuführen.
I wie Inkubator
Inkubatoren sind Einrichtungen oder Institutionen, die Unternehmer auf ihrem Weg in die Selbstständigkeit und Existenzgründung unterstützen. Die Bezeichnung kommt ursprünglich nicht aus der Wirtschaft, sondern aus der Medizin, in der eine Art Brutkasten für Frühgeborene als Inkubator bezeichnet wird und dafür sorgt, dass ein optimales Klima geschaffen wird, in dem die Neugeborenen in Ruhe heranwachsen können. Im übertragenen Sinne übernehmen Inkubatoren auch für Unternehmensgründer und Startups eine solche Funktion, da sie diesen eine Umgebung mit optimalen Rahmenbedingungen zur Verfügung stellen, um erfolgreich in das Geschäftsleben zu starten und gesundes Wachstum zu ermöglichen. Infolgedessen steigen die Überlebens- und Wachstumschancen von neuen Unternehmen. Inkubatoren fungieren nicht nur als Investor, in dem sie Geldmittel zur Verfügung stellen, sondern auch, in dem sie ihr Netzwerk, gewisse Infrastrukturen sowie wertvolles Know-how zur Verfügung stellen, bei der Ideenfindung und dem Teambuilding unterstützen sowie bei der Entwicklung und Ausgestaltung des Geschäftsmodells und Businessplans. Auch ihre Rolle im Mentoring sollte nicht unterschätzt werden. Als Gegenleistung erhalten die Inkubatoren Anteile am Geschäftsmodell und gewisse Einflussmöglichkeiten. Die Aufgabe eines Business Accelerator ähnelt in vielen Punkten denen eines Inkubator. Der Unterschied liegt darin, dass Business Acceleratoren Startups nur über einen kleinen Zeitraum begleiten und den Fokus auf schnelles Wachstum und einen maximal gewinnbringenden Ausstieg legen. Außerdem liegt der Schwerpunkt häufig weniger auf der Unternehmensentwicklung als mehr auf der schnellen Entwicklung eines marktreifen Produktes.
I wie Innotekten
Als Brutkasten für kreative Innovationen und als bebaute Unternehmenskultur für mehr Agilität und Veränderung unterscheidet sich ein →Innovation Space durch seine Geometrie, Ausstattung und Gestaltung von den vorhandenen Büro-, Besprechungs- oder Seminarräumen. Der multisensorische, flexible Raum schafft ein ideenförderndes Umfeld und stellt alle notwendigen Flächen und Werkzeuge zur Verfügung, um Ideen zu entwickeln, zu kanalisieren, zu strukturieren und systematisch weiter zu entwickeln. Ob kreative Ideenräume, agile Arbeitsbereiche oder der Marktplatz der Innovationen – die Konzeption, Entwicklung und Gestaltung von innovativen Räumen folgt einer klaren Methodik und Didaktik, um auf Verhaltensmuster von Menschen zu reagieren und kreative Potenziale zu fördern. Außerdem geht es darum, aus der täglichen Routine auszubrechen und andere Sichtweisen zu entwickeln. Infolgedessen geht es bei innovativen Raumkonzepten um deutlich mehr als nur um moderne Gestaltungs- oder Einrichtungskonzepte. „Innotekten“ ist ein ganzheitliches Raumkonzept als Ausdruck einer innovationsfreundlichen Unternehmenskultur. Das von der e-nnovalytics entwickelte Konzept setzt sich auf drei Ebenen mit der Rolle und Funktionalität von Räumen auseinander und stattet diese mit individualisierten Modulen aus, bevor eine personalisierte und interaktive Umsetzung mit den Beteiligten erfolgt. So werden neben innovativen Räumen auch agile Kollaboration, produktives Co-Working, professionelles Netzwerken und spannende Events ermöglicht und Veränderungsprozesse und silobefreites Denken in der Organisation gefördert.
Die erste Ebene des Raumkonzeptes definiert die Rolle und Funktion der Räume. Nach der Typologie werden 5 funktionale Räume unterschieden:
- gemeinsam (alle Räume, in denen es um Kommunikation, Zusammenarbeit, Abstimmung und dgl. geht)
- neues (hier geht es um Kreativität, Experimentieren, Brainstorming etc.)
- ruhig (Räume, in denen man sich konzentrieren muss oder monotone Arbeit verrichtet)
- versorgen (hierzu gehören Kantine, Etagenküche, Kopierräume usw.) und
- virtuell (hierbei handelt es sich um virtuelle Räume wie Videokonferenzen genauso wie digitale Messen oder interaktive POS)
In der zweiten Ebene setzt sich das Konzept mit 7 individualisierten Bausteinen auseinander. Diese bestehen aus Kommunikation, Inspiration, Flexibilität, Technologie, Sensorik, Identität und Interaktion. Der letzte der sieben individualisierten Bausteine führt nahtlos in die dritte Ebene des Konzeptes – die interaktive Umsetzung, Individualisierung und Personalisierung, also die aktive Einbindung der Mitarbeiter. Bei der Einrichtung setzt das Konzept auf den Wohlfühlfaktor und die Funktionalität sowie auf die psychologische Wirkung aus Farben und Formen, Licht und Akustik sowie gesundheitliche Aspekte. Im Konzept geht es um das richtige Verhältnis und die Wechselwirkung zwischen Beschleunigen und Entschleunigen, Anspannung und Entspannung sowie kreativen Ideen und zielgerichteter Umsetzung – also ein differenziertes Raumkonzept je nach Funktionalität, Interaktion und Dynamik.
I wie Innovation
Innovation ist ein stark strapazierter Begriff und steht für eine Neuerung in Bezug auf Denkhaltungen, Geschäftsmodelle, Märkte, Prozesse, Strukturen, Lösungen und/oder Produkte, die es in der Form bislang noch nicht gegeben hat und einen positiven und messbaren Effekt hat und einen Mehrwert für den externen und internen Kunden hat und bei diesen Akzeptanz findet und eine Differenzierung vom Marktumfeld erzielt. Innovationen sind keine Aufgabe einer Abteilung, sondern müssen Querschnittsfunktion über alle Unternehmensbereiche und Fachabteilungen sein und zum Selbstverständnis aller Mitarbeiter werden. Eine hohe Expertise und viel Know-how sind keine Garantie für erfolgreiche Innovationen, es bedarf auch einer organisatorischen, kulturellen und methodischen Ebene. In erster Linie ist Innovation eine Geisteshaltung der Unternehmensführung und -ausrichtung.
Bereits 2008 schlug der OECD-Report „The New Nature of Innovation“ einen erweiterten Innovationsbegriff vor, der neben der →Produktinnovation auch die →Verfahrensinnovation, →Prozessinnovation, →Serviceinnovation, →Vertriebsinnovation sowie die →Geschäftsmodellinnovation beinhaltete und die Transformation von Organisationen in den Fokus nahm.
I wie Innovation Balanced Scorecard
Der traditionelle Ansatz, um Innovationen zu budgetieren und den Erfolg an statischen Kennziffern wie z. B. dem F&E-Budget, Anzahl oder Einnahmen aus Patenten, Umsatzanteile von Neuprodukten etc. zu messen, funktioniert heute aufgrund der Verkürzung der Produktlebenszyklen und der Dynamik von Innovationsprojekten nicht mehr. Modernes Innovationsmanagement braucht spezifische Methoden und Instrumente für eine ganzheitliche Betrachtung und agiles Projektmanagement. Ein Ansatz ist die Innovation Balanced Scorecard, die sich zur Planung und Kontrolle von Projekten im Innovationsmanagement an dem bewährten Modell der Balanced Scorecard anlehnt. Den Rahmen gibt die Unternehmens- und Innovationsstrategie vor. Die Innovation Balanced Scorecard umfasst die vier Perspektiven:
- Innovationskultur
- Innovationsressourcen
- Innovationsprozess
- Innovationsoutput
Die Innovation Balanced Scorecard erweitert das System finanzieller Kennzahlen um nicht-finanzielle Kennzahlen und ermöglicht dadurch, über die rein operative Perspektive des Unternehmens hinaus dessen Mission und Leitbild in materielle Ziele zu übersetzen und diese überprüfbar zu machen. Somit berücksichtigt dieser Ansatz auch die immateriellen Vermögenswerte, die zunehmend als erfolgskritischer Wettbewerbsfaktor gesehen werden und über das traditionelle Rechnungswesen nicht abgebildet werden können.
Die zur Absicherung des Kerngeschäfts vorhandenen Standardprozesse unterscheiden sich teilweise erheblich von denen des Innovationsmanagements. Dies ist vor allem in den vielfältigen Dimensionen der unterschiedlichen Innovationen sowie der Werkzeuge im Innovationsmanagement begründet. Dies abzubilden ist Aufgabe der Innovation Balanced Scorecard.
I wie Innovation Funnel
Unter dem Begriff Innovation Funnel versteht man eine Phase im →Innovationsprozess, in der die Selektion der vorhandenen kreativen und innovativen Ideen sowie deren notwendigen Schritte zu einer möglichen Realisierung vorgenommen wird. Dieser Innovationstrichter dient dazu, aus den kreativen Ideen in der Anfangsphase innovative Ansätze zu identifizieren, um dann in weiteren Phasen die Innovationsideen zu verdichten und die „besten“ →Innovationen herauszufiltern.
I wie Innovation Lab
Innovation Labs (oder auch nur „Lab“ – so die neudeutsche Bezeichnung) sind physische und/oder virtuelle Räume, die der Initiierung, Entwicklung und Umsetzung kreativer und innovativer Ideen dienen. Die auch als Hubs, Inkubatoren oder Kreativwerkstätten bezeichneten Räume ermöglichen durch ihre reale und/oder virtuelle Infrastruktur eine offene, oft zeitlich begrenzte Zusammenarbeit zwischen kreativen Köpfen. Dies können Mitarbeiter aus dem Unternehmen, bestehende Kunden oder potentielle Neukunden, Lieferanten, Hochschulen, Innovationsagenturen oder Forschungseinrichtungen sein.
Damit kreative Ideen und innovative Denkprozesse stimuliert werden können, müssen Konzeption, Entwicklung und Gestaltung dieser Innovation Labs einer klaren Methodik und Didaktik folgen, um auf Verhaltensmuster von Menschen zu reagieren und kreative Potenziale zu fördern. Außerdem geht es darum, aus der täglichen Routine auszubrechen, andere Sichtweisen zu entwickeln und kreative und innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Infolgedessen geht es bei innovativen Raumkonzepten um deutlich mehr als nur um moderne Gestaltungs- oder Einrichtungskonzepte bzw. multisensorische Räume. Kreative Menschen, agile Teams und innovative Ideen brauchen (Frei-)Raum für einen Perspektivwechsel. Dieser gelingt nur mit einem ganzheitlichen Raumkonzept als visualisierter und gelebter Ausdruck einer innovationsfreundlichen Unternehmenskultur. Es geht es um das richtige Verhältnis und die Wechselwirkung zwischen Beschleunigen und Entschleunigen, Anspannung und Entspannung, kreativen Ideen und zielgerichteter Umsetzung – also ein differenziertes Raumkonzept je nach Funktionalität, Interaktion und Dynamik. Rolle und Funktion von Räumen werden zu häufig in der Konzeption vernachlässigt.
Es gibt verschiedene Arten von Innovation Labs. Diese können intern eingerichtet und durch eigene Mitarbeiter betrieben werden, vom Unternehmen vollständig losgelöst sein und durch externe Experten betrieben werden oder eine Mischung aus Beidem – die meist gewählte Variante. Wichtig ist, dass das Innovation Lab autark agieren kann und nicht in die üblichen Hierarchien, Prioritäten und Abläufe eingebunden oder durch Silo- bzw. Bereichsdenken ausgebremst wird. Grundsätzlich werden folgende Lab-Typen unterschieden:
- Grasroot Labs entsprechen häufig einem Werkstattcharakter. Diese Kategorie Labs werden oft privat (und weniger kommerziell) von einer oder mehreren Personen initiiert. Das Motiv ist oft der Spaß am Experimentieren und am kreativen Austausch mit anderen, wofür man nicht selten seine eigenen Räume zur Verfügung stellt.
- Co-Working Labs dagegen haben wirtschaftliche Ziele und ein konkretes Geschäftskonzept. Diese Kategorie Lab besteht in realen Räumen zum Arbeiten vor Ort. Flexible Nutzungsbedingungen und verschiedene Angebote und Formate sind auf heterogene und/oder wechselnde Nutzer ausgelegt.
- Corporate Labs werden von einem oder mehreren kooperierenden Unternehmen eingerichtet, um spezifische Aufgabenstellung zu lösen. Häufig geht es um die Etablierung oder Professionalisierung des eigenen Innovationsprozesses. In dieser Kategorie Lab werden häufig externe Experten und/oder Kunden und Zielgruppen mit eingebunden.
- Forschungs-Labs werden von Hochschulen oder anderen Forschungseinrichtungen betrieben. In dieser Kategorie Lab geht es in erster Linie darum, Forschungsergebnisse im frühen Stadium der Industrie vorzustellen und gemeinsam zu implementieren. Nicht selten werden aus diesen Projektergebnissen Ausgründungen initiiert und Startups gegründet.
Daneben gibt es noch →Inkubatoren, die Startkapital, Know-how, einen Marktzugang etc. anbieten und darüber hinaus einen →„Coworking Space“ zur Verfügung stellen, der aber in der Regel „inhouse“ ist und dessen Zugang im Unterschied zu den Co-Working Labs enger begrenzt ist.
Die Einrichtung von Innovation Labs hat sich in den letzten Jahren zu einem regelrechten Hype entwickelt. Große Konzerne und innovative Unternehmen sowieso aber auch immer mehr KMU´s gründen einen Innovation Lab, um als „modern“, „innovativ“ oder im War of Talents als „hipp“ zu gelten. Nicht selten wird darunter „nur“ die Einrichtung eines kreativen Raumes (miss-)verstanden, ohne dass ein ganzheitliches und nachhaltiges Konzept vorliegt. Es geht mehr um die Tatsache, ein Lab zu haben als sich mit der Frage auseinander zu setzen, wofür dieser eingerichtet wird, welche spezifischen Ziele damit verfolgt und wie diese konkret erreicht werden sollen. Diese „Ego-Labs“ werden mittlerweile als →Innovationstheater bezeichnet.
I wie Innovation Roadmap
Heutige Innovationsprozesse können mit einem herkömmlichen Projektmanagement mit einem starren Terminplan und feststehenden Aufgaben und Verantwortlichkeiten nicht mehr gesteuert werden. Von der ersten Ideenentwicklung über die Iteration bis hin zur erfolgreichen Implementierung einer Innovation müssen zahlreiche Hindernisse überwunden und nicht selten alternative Wege eingeschlagen werden. Die Operationalisierung des Innovationsprozesses ist durch unvorhergesehene Einflüsse und agile Arbeitsmethoden geprägt. Dies zu managen ist Aufgabe einer Innovation Roadmap. In dieser werden Zwischenziele klar definiert und der Weg dahin so agil wie notwendig gestaltet. Wie das Projektziel erreicht wird, liegt in der Verantwortung der Teams. Die Vorteile einer Innovation Roadmap für Unternehmen und dem Innovationsmanagement liegen klar auf der Hand. Der oft lange und unflexible sowie unüberschaubar erscheinende Prozess im herkömmlichen Projektmanagement wird in überschaubare und zu bewältigende kleine Teilprojekte heruntergebrochen. Dies hat den Vorteil, dass Innovationsteams schnell und gezielt reagieren können, wenn bestimmte Maßnahmen auf dem Weg zum nächsten Meilenstein nicht funktionieren oder sich als unpraktikabel erweisen. Gleiches gilt, wenn im Rahmen der Iteration neue Erkenntnisse gewonnen werden. Eine Innovation Roadmap ist das Spiegelbild einer agilen Kollaboration und Reifegrad einer innovativen Unternehmenskultur. Typische Elemente einer Innovation Roadmap folgen einem einfachen Prinzip: entwickeln (Konzept), ausprobieren (Prototyp), optimieren (MVP = Minimum Viable Product) und finalisieren (Implementierung).
I wie Innovationscontrolling
Das Innovationscontrolling wird häufig mit dem Controlling im Projektmanagement von Innovationsprojekten verwechselt obwohl dies deutlich darüber hinausgeht. Denn das Innovationscontrolling als Teil des Innovationsmanagements im Unternehmen wird über Kennzahlen abgebildet. Diese umfassen den Innovationsprozess selbst sowie die Innovationskultur und machen die Innovationsfähigkeit messbar. Das Innovationscontrolling dokumentiert Qualität und Quantität eingegangener Ideen und bewertet deren Reifegrad. Hierzu ist wichtig, dass objektive und reproduzierbare Kennziffern definiert werden, damit die Bewertung nicht nach subjektiven Einschätzungen erfolgt. Eine der Kernaufgaben im Innovationscontrolling ist der Abgleich, in wie weit die eingereichten Ideen zu den in der Innovationsstrategie erarbeiteten Suchfelder passen und/oder die Ziele der Unternehmensstrategie unterstützen. Außerdem misst das Innovationscontrolling die Aktivität und Dynamik der Mitarbeiter. So genannte Aktivitätskennzahlen geben einen Überblick, wie viele Mitarbeiter und wie häufig diese Ideen eingeben oder an eingereichten Ideen anderer Mitarbeiter mitarbeiten. Dies ergibt den Grad ihrer Aktivität. In einigen Unternehmen wird auch der so genannte Polarisierungsgrad gemessen, also welche Ideen eine besonders hohe Zustimmung oder Ablehnung erfahren. Beides können wichtige Kennziffern für ein zukünftiges Bewertungsverfahren sein und wertvolle Ressourcen sparen. Hierfür hat sich der Einsatz von spezieller Ideen- und Innovationsmanagement-Software bewährt. Das Monitoring umfasst die kontinuierliche Überwachung der aktuellen und zukünftigen Innovationsleistung eines Unternehmens. Mit ihm wird ein Indikator für die zukünftige Wettbewerbsfähigkeit im Leistungsportfolio von Unternehmen geschaffen.
I wie Innovationsfalle
Der Begriff Innovationsfalle wird für verschiedene Situationen verwendet und beschreibt z. B. den Zustand, wenn Unternehmen entweder keine kreativen oder innovativen Ideen haben oder wenn die Umsetzung dieser zu erfolgreichen Innovationen zu lange braucht, ineffizient sind oder nicht den gewünschten Erfolg bringen. Der Begriff wird auch gewählt, wenn Unternehmen zu viele Ideen und Innovationsprojekte haben und diese nicht priorisieren oder während der Umsetzung den Fokus verlieren. Von einer Innovationsfalle spricht man auch, wenn interne Widerstände, Bereichsdenken und Neophobie immer wieder innovative Ideen ausbremsen oder Veränderungen unterbinden. Hierfür gibt es mehrere Ursachen:
- Innovationsfalle – das fehlende Innovationsverständnis: Unternehmen bezeichnen sich als kreativ, visionär und innovativ und schmücken sich gerne mit diesen Attributen, bleiben den Beweis dafür schuldig. Neue Produkte sind eher die Optimierung oder Weiterentwicklung der bestehenden Eigenschaften. Neu und anders wird gerne als innovativ verkauft. Infolgedessen entsteht die…
- Innovationsfalle – die fehlende Innovationskultur. Die Innovationskultur eines Unternehmens steht auf drei Säulen: der Innovationsfähigkeit (dem „Können“), der Innovationsbereitschaft (dem „Wollen“) und der Innovationsmöglichkeit (dem „Dürfen“), was Ursache ist für die…
- Innovationsfalle – das fehlende Innovationsmanagement. Essentielle Voraussetzungen für erfolgreiche Innovationen fehlen: es gibt keine Innovationsstrategie und nur einen überholten Innovationsprozess, das Wertesystem ist konservativ, die Führungskultur ist hierarchisch und vertikal ausgeprägt, Fehlerkultur bedeutet Schuldzuweisungen und Strukturen und Prozesse sind auf Innovationen als Querschnittsfunktion und agiles Projektmanagement nicht ausgelegt. Dies sind die Ursachen für die…
- Innovationsfalle – die fehlende Innovationskompetenz. Erfolgreiches Innovieren bedeutet nicht nur kreative und innovative Ideen zu entwickeln, sondern diese auch strukturiert und lösungsorientiert umzusetzen und erfolgreich zu vermarkten. Dies bedeutet, dass Innovationsteams sehr heterogen zusammen gesetzt sein und unterschiedliche Skills mitbringen müssen. Hierzu gehört neben den strategisch-konzeptionellen Fähigkeiten auch ein operativer Methodenkoffer. Verstärkt wird das Problem durch die…
- Innovationsfalle – Ignoranz und Selbstüberschätzung. Namhafte Weltkonzerne findet man auch deshalb heute in Geschichtsbüchern, weil das TOP-Management unternehmensbedrohende Entwicklungen unterschätzt hat oder sich nicht vorstellen konnte, dass diese Innovationen ihr eigenes Geschäftsmodell obsolet werden lassen. Das Top-Management dieser Unternehmen macht immer wieder den gleichen Fehler und beurteilt die Zukunft mit den Erfahrungen der Vergangenheit. Dies führt zwangsläufig zur…
- Innovationsfalle – das fehlende Commitment zu den Ressourcen. So lange das TOP-Management die notwendigen Ressourcen (Zeit, Budget, Personal, Freiräume) nicht zur Verfügung stellt und Innovationen nur halbherzig und nebenbei betrieben werden, wenn es das Tagesgeschäft zulässt, werden sich keine Erfolge einstellen. Innovationen müssen Querschnittsfunktionen im gesamten Unternehmen werden und genauso selbstverständlich sein wie Marketing, Vertrieb oder andere Funktionsbereiche. Nur so kann sie vermieden werden, die…
- Innovationsfalle – das Bewahren des Status Quo. Tradition ist die Innovation von gestern. In vielen Unternehmen hat sich eine Komfortzone etabliert, die hartnäckig alle Bemühungen auf Veränderungen unterbindet. Ob in den Führungsetagen, in denen die Bonifizierung an Wachstum und Effizienzsteigerungen gekoppelt wird oder bei Mitarbeitern, die im Alltag überlastet oder manchmal auch überfordert sind und den aktuellen Stand konservieren möchten. Dies führt zur letzten, der…
- Innovationsfalle – falsche Anreize und Priorisierung. In vielen Unternehmen werden Incentives an operative Erfolge geknüpft: mehr Umsatz, mehr Marge, mehr Marktanteil, mehr Neukunden etc. Dies fördert Quartalsdenken und Wachstum und somit den Erfolg von Unternehmen – aber eben keine nachhaltig angelegten Innovationen. So lange Wachstum und Erfolg durch Bestehendes erreicht werden kann, werden sich neue Dinge nicht durchsetzen.
Egal, welche dieser acht Ursachen verantwortlich sind für eine Innovationsfalle im Unternehmen: nur ein an die Unternehmensstrategie angelehntes Innovationsmanagement mit einer nachhaltigen Innovationskultur und einer ganzheitlichen Umsetzungskompetenz sowie einem agilen Projektmanagement werden kreative und innovative Ideen zu messbaren Ergebnissen und nachhaltigen Erfolg führen.
I wie Innovationsförderung
Innovationen benötigen nicht nur visionären Weitblick, kreative Ideen sowie den spezifischen Methoden- und Werkzeugkoffer, sondern vor allem finanzielle Ressourcen. Neben Investitionen aus privatwirtschaftlichen Unternehmen gibt es auch öffentliche Förderprogramme, mit denen Digitalisierung und Innovation unterstützt werden. Unterschieden werden Förderungen auf europäischer Ebene sowie auf Bundes- und Landesebene. Des Weiteren gibt es Förderungen für Startups vor der Gründung, andere wiederum werden erst nach der Gründung vergeben. Grundsätzlich werden Zuschüsse oder zinsgünstige Kredite unterschieden. Bei den Zuschüssen, die nicht zurückgezahlt werden müssen, schwankt die Förderquote zwischen 30 bis 80%. Diese Zuschüsse sind auf einen Maximalbetrag gedeckelt, so dass immer ein Eigenanteil aufgebracht werden muss. Bei zinsgünstigen Krediten werden häufig zusätzlich Tilgungszuschüsse oder Haftungsfreistellungen gewährt.
Die meisten Förderprogramme richten sich an kleine und mittelständische Unternehmen (KMU) der gewerblichen Wirtschaft bis zu 250 Mitarbeitern, deren Größe in vielen Förderprogrammen die Grundlage für die Bemessung der Förderquote ist. Folgende Unternehmen sind in der Regel förderfähig:
- Kleinstunternehmen bis 10 Mitarbeiter mit einem Jahresumsatz von max. 2 Mio. EUR
- Kleine Unternehmen bis 50 Mitarbeiter mit einem Jahresumsatz von max. 10 Mio. EUR
- Mittelständische Unternehmen bis 250 Mitarbeiter mit einem Jahresumsatz von max. 50 Mio. EUR
Die Förderung hat zum Ziel, die digitale Wettbewerbsfähigkeit des deutschen Mittelstandes zu verbessern. Hierbei geht es nicht nur um die Entwicklung →digitaler Innovationen, sondern auch um die Implementierung von digitalen Plattformen, die Digitalisierung von bestehenden Prozessen bis hin zur Investition in die IT-Sicherheit. Die zuwendungsfähigen Ausgaben hängen stark vom jeweiligen Förderprogramm ab. Generell gilt, dass externe Berater und/oder IT-Spezialisten und/oder Entwickler fast immer gefördert werden. Bei einigen Förderprogrammen (z. B. go-digital) gibt es lediglich die Einschränkung, dass nur autorisierte Berater eingesetzt werden dürfen. Standard-Software oder auch Hardware wird sehr selten gefördert und Personalausgaben sind von der Förderung ausgeschlossen. An nicht rückzahlbare Zuschüsse sind deutlich mehr Bedingungen und Voraussetzungen geknüpft als an Kredite.
Aufgrund der ständigen Anpassung von Vergabevoraussetzungen, Laufzeiten, Art und Umfang von Zuschüssen oder Krediten kann die nachfolgende Übersicht über bundesweite Förderprogramme nur einen generischen Überblick geben.
- Digital Jetzt (Zuschuss bis 50.000 Euro, Förderquoten 30 bis 60%): Das Förderprogramm „Digital Jetzt“ des Bundesministeriums für Wirtschaft und Energie (BMWi) unterstützt KMU mit einem Zuschuss von bis zu 50.000 Euro. Die Fördersumme erhöht sich auf bis zu 100.000 Euro, wenn das Projekt mit mehreren Partnern in einem Netzwerk umgesetzt wird. Startups können die Förderung nur in Anspruch nehmen, wenn bereits ein signifikanter Geschäftsumsatz vorhanden ist. Die Förderung beinhaltet zwei Module. Das erste Modul fördert die Digitalisierung von Prozessen, die Entwicklung von digitalen Plattformen sowie die Entwicklung von digitalen Innovationen und beträgt 17.000 Euro. Das zweite Modul fördert die Qualifizierung von Mitarbeitern zu digitaler Kompetenz und beträgt 3.000 Euro. Die Förderquoten richten sich nach der Größe des Unternehmens: 40% bei bis zu 50 Mitarbeiter, 35% bei bis zu 250 Mitarbeiter und 30% bei Unternehmen mit bis max. 500 Mitarbeiter. Die Förderung kann um jeweils 5% durch zusätzliche Faktoren (z. B. Verbundprojekte, IT-Sicherheit, strukturschwache Regionen) erhöht werden.
- BAFA-Förderung (Zuschuss bis 4.000 Euro, Förderquoten 50 bis 90%): Im Rahmen des Programms “Förderung unternehmerischen Know-hows” werden Startups und Jungunternehmen mit 4.000 Euro, Bestandsunternehmen (> 2 Jahre) bis 250 Mitarbeiter mit 3.000 Euro sowie Unternehmen in Schwierigkeiten mit 3.000 Euro gefördert. Bei Startups und Jungunternehmen werden vor allem Beratungen in der Gründungs- und Aufbauphase zu wirtschaftlichen, finanziellen, personellen und organisatorischen Fragen der Unternehmensführung gefördert. An die Auswahl der Berater werden keine speziellen Anforderungen gestellt.
- Go digital (Zuschuss 16.500 Euro, Förderquote 50%): Im Förderprogramm „go digital” des BMWI erhalten KMU mit bis zu 100 Mitarbeitern und max. 20 Mio. Euro Umsatz einen Zuschuss über max. 16.500 Euro. Mit dem Programm werden Zuschüsse für Beratungsleistungen für die digitale Transformation in den Bereichen IT-Sicherheit, Digitale Geschäftsmodelle und -prozesse sowie Markterschließung gewährt. Dieser Zuschuss umfasst maximal 30 Beratertage zu einem Höchstsatz von 1.100 Euro und wird mit 50% gefördert. Die Beratung darf allerdings nur von einem autorisierten Berater vorgenommen. Außerdem sind zwei Beratertage zum Thema “IT Sicherheit” verpflichtend. Von der Förderung ausgeschlossen sind reine Investitionsmaßnahmen in Hard- und Standardsoftware.
- Go-Inno (Zuschuss 27.500 Euro, Förderquote 50%): Mit dem Förderprogramm „go Inno“ bezuschusst das BMWI die Innovationsberatung von KMU mit weniger als 100 Mitarbeitern und einem Umsatz weniger als 20 Mio. Euro. Die Rahmenbedingungen des Programms sind analog zu denen von „go digital“. Dies gilt auch für die Vorgabe, dass Dienstleistungen nur von autorisierten Beratern vorgenommen werden dürfen. Eine Kombination beider Programme ist nicht möglich. Gefördert werden Beratungsleistungen für Potenzialanalysen mit max. 10 Manntagen, für ein Realisierungskonzept mit max. 25 Manntagen und Projektmanagement mit max. 15 Manntagen. Für einen Beratertag sind bis zu 1.100 Euro zu 50% förderfähig.
- ERP-Digitalisierungs- und Innovationskredit (Kredit bis 25 Mio. Euro, Zins ab 0,04%): Der Digitalkredit der KfW richtet sich an Unternehmen mit bis zu 500 Mio. Euro Umsatz sowie Freiberufler mit mindestens 2 Jahre Tätigkeit am Markt. Er dient zur zinsgünstigen Finanzierung von digitalen Vorhaben, mit denen die digitale Transformation und/oder Innovationen eines Unternehmens gefördert werden.
- ERP-Mezzanine für Innovationen (Kredit 25.000 bis 5 Mio. Euro, Zins ab 0,33 %, Nachrangkapital, Laufzeit 10 Jahre): Im Gegensatz zum Digitalisierungs- und Innovationskredit fördert das Programm „ERP-Mezzanine für Innovationen“ marktnahe Forschung und Entwicklungen, die sich vom Stand der Technik in der EU abheben sowie Vorhaben, die für das beantragende Unternehmen neu sind. Gefördert werden Investitionen und Betriebsmittel. Dabei übernimmt die KfW bis zu 60% Risikoübernahme durch Nachrangkapital. Die Neuartigkeit des Vorhabens muss im Rahmen der Antragstellung von einem von der KfW zertifizierten Gutachter attestiert werden. Zielgruppe sind Unternehmen mit bis zu 500 Mio. Euro Umsatz sowie Freiberufler, die mindestens 2 Jahre am Markt sind.
Für einen Überblick der aktuellen Konditionen empfiehlt sich der Besuch der jeweiligen Webseiten.
I wie Innovationsgrad
Der Innovationsgrad unterscheidet Innovationen in →inkrementelle Innovationen, →radikale Innovationen und →disruptive Innovationen. Der Innovationsgrad definiert, wie neu eine Innovation ist und wie groß ihr Impact für die Branche oder dem Markt sein kann. Er ermöglicht die Einstufung von Innovationen hinsichtlich ihres technischen Fortschritts und der Neuigkeit für den Markt. Der Innovationsgrad ist eine der wichtigsten Kenngrößen im →Innovationsmanagement und hat Auswirkungen auf die →Innovationsstrategie, die →Timing-Strategie sowie dem für die Umsetzung notwendigen Methodenkoffer.
I wie Innovationskommunikation
Die Innovationskommunikation ist ein Teilgebiet der Unternehmenskommunikation und beschreibt sämtliche Kommunikationsprozesse innerhalb des →Innovationsmanagements. Hierbei liegt der Fokus auf der Entwicklung neuer Produkte, Services und Dienstleistungen, Technologien, Verfahren und Prozesse sowie Vertriebskonzepten und Geschäftsmodellen. Der Schwerpunkt der Innovationskommunikation liegt darin, den Stand dieser Innovationsprojekte und -maßnahmen intern und extern zu vermitteln. In der internen Kommunikation geht es vor allem darum, Transparenz in der Organisation zu schaffen und alle Mitarbeiter aktiv mit einzubeziehen. Neben der Information hilft dies vor allem, mögliche Widerstände und Hindernisse zu überwinden bzw. abzubauen. Daher fokussiert sich die Innovationskommunikation nicht nur auf die Innovation selbst, sondern auch auf die dahinter stehende Organisation, auf Strukturen und Prozesse sowie Zuständigkeiten. Ein wichtiger Baustein ist die Kommunikation von Meilensteinen und Teilerfolgen. Hierbei ist wichtig, dass die Vermittlung von innovativen Neuerungen und/oder komplexen Prozessen durch einfache und verständliche Botschaften erfolgt. Durch die steigende Relevanz von Innovationen für Unternehmen nutzt die Innovationskommunikation zunehmend Elemente aus der Marketingkommunikation und setzt z. B. Storytelling oder visuelle Übersetzungen ein und etabliert hierfür kommunikative Plattformen, entweder über das klassische Intranet oder Game-basierte Plattformen.
Die Innovationskommunikation unterscheidet mehrere Ebenen: in der Mikroebene erfolgt die Erklärung und Interpretation von Innovationen zwischen einzelnen Personen, insbesondere von Fach- und Führungskräften sowie Mitarbeitern. In der Mesoebene finden die innovationsbezogenen Kommunikationsprozesse innerhalb einer Organisation statt und die Makroebene ist für die Kommunikation über Innovationen nach außen, also gegenüber Kunden, Geschäftspartnern sowie allgemein in der Öffentlichkeit. Letztere nutzt die Massenmedien und die komplementäre Funktion des →Innovationsjournalismus im Sinne einer 360-Grad-Berichterstattung über ökonomische, ökologische, technische und soziale Aspekte von Innovationen. Unter einer umfassenden 360-Grad-Perspektive versteht man die Einbindung der Innovationskommunikation in allen Phasen des Innovationsmanagements.
Die Abgrenzung der Innovationskommunikation zum Innovationsmanagement, zur Unternehmenskommunikation und zur Marketingkommunikation ist oft schwierig und übergreifend. Denn auch die Innovationskommunikation hat das Ziel, das Innovationen von den betroffenen Menschen wahrgenommen und verstanden wird. Vergleichbar mit der technischen Funktionalität sowie der ökonomischen Effizienz entscheiden auch kognitive Prozesse bei Mitarbeitern, Kunden und Geschäftspartnern über die Akzeptanz neuer Produkte und Dienstleistungen. Die Innovationskommunikation als Mittler der anderen Kommunikationsarten versucht daher in der Praxis, sowohl Ereignis-, Gefühls- und Nutzwerte zu vermitteln. Dies kann durch Personalisierung, Veranschaulichung oder Erlebbarkeit der Innovation erreicht werden.
I wie Innovationskompetenz
Innovationen sind nur in einer innovationsfreundlichen Unternehmenskultur möglich. Diese ist nicht nur Spiegelbild für das Selbstverständnis von Unternehmen, sondern schafft die Voraussetzungen für die notwendige Innovationskompetenz. Diese wird definiert über die Innovationsfähigkeit („Können“), Innovationsbereitschaft („Wollen“) und Innovationsmöglichkeit („Dürfen“). Alle drei Dimensionen stehen in direkter Beziehung. Innovationen sind dann erfolgreich, wenn die Rahmenbedingungen für das Können, Wollen und Dürfen geschaffen wurden und alle drei Dimensionen ausgewogen sind. Die Plattform für die drei Dimensionen stellt die →Innovationskommunikation dar. Diese vermittelt Ziele, Strategie sowie Maßnahmen zur Umsetzung, schafft Transparenz über Zuständigkeiten und Verantwortlichkeiten, informiert über Projekte und deren Erfolge, Ergebnisse oder den aktuellen Stand.
I wie Innovationskultur
Die Begriffe Unternehmenskultur, innovative Unternehmenskultur und Innovationskultur werden im Umfeld von Innovationen oftmals synonym verwendet, obwohl es feine Unterschiede gibt. Die Unternehmenskultur wird von den Beziehungen und dem Handeln der Mitarbeiter innerhalb eines Unternehmens geprägt sowie von dem Auftreten nach außen gegenüber Kunden, Geschäftspartnern und dgl. Sie ist nicht direkt sichtbar und zeigt sich durch Werte, Normen und Denkhaltungen, die ein Unternehmen mehrheitlich teilt. Hierbei kann es sich um ein niedergeschriebenes Leitbild genauso handeln wie die ungeschriebenen Gesetze im Flurfunk eines Unternehmens.
Die Innovationskultur dagegen beschreibt eine spezifische Ausprägung innerhalb der Unternehmenskultur, mit der die individuelle Kreativität von Mitarbeitern und vor allem die Entwicklung von Innovationen im Unternehmen gefördert werden soll. Da es sich bei Innovationsprozessen um eine Querschnittsfunktion im Unternehmen handeln sollte und in der Regel um bereichsübergreifende Prozesse, schafft die Innovationskultur die Leitplanken, Voraussetzungen und Rahmenbedingungen. „Ideen einen Raum geben“ ist hierbei nicht nur auf den physischen Raum z. B. in Form eines Innovation Lab zu beziehen, sondern auch auf die Risikobereitschaft, Delegation von Verantwortlichkeiten, das Aufbrechen von Hierarchien und starren Prozessen, eine entsprechende Plattform für die Kommunikation u.v.m. Essenziell ist, dass diese von sämtlichen Prozessbeteiligten geprägt und vom Management mit getragen werden. Eine innovative Unternehmenskultur ist nicht nur für eine hohe Innovationskraft und erfolgreiche Implementierung von Innovationen verantwortlich, sondern schafft auch Anreize und Identifikation für die Mitarbeiter mit positiven Auswirkungen auf das Employer Branding.
Die Innovationskultur eines Unternehmens wird von dem Dreiklang aus dem „Können“ (Innovationsfähigkeit), dem „Wollen“ (Innovationsbereitschaft) und dem „Dürfen“ (Innovationsmöglichkeit) geprägt. Diese sind nicht isoliert zu sehen, sondern beeinflussen sich gegenseitig. Erfolgreiche Unternehmen zeichnet aus, dass alle drei Dimensionen stark ausgeprägt sind und die Rahmenbedingungen für das Können, Wollen und Dürfen geschaffen wurden. Infolgedessen wird die Innovationskultur von wesentlichen Faktoren beeinflusst: der Strategie, dem Wertesystem, der Führungskultur, der Risiko- und Fehlerkultur, Strukturen und Prozessen, der Zusammensetzung von Teams sowie wesentlich von der internen Kommunikation.
Die Bedeutung der Innovationskultur wurde erst in den letzten Jahren verstärkt erkannt, da viele Unternehmen in der Vergangenheit ihren Erfolg an Umsätzen, Gewinnen und Prozessoptimierung festgemacht haben. Die Notwendigkeit zu mehr Innovation und die Transformation zu mehr Digitalisierung haben gezeigt, dass mit den bewährten Methoden der Vergangenheit die Herausforderungen der Gegenwart und Zukunft nicht mehr gemeistert werden können. Die Entwicklung von Serviceinnovationen, der Aufbau digitaler Geschäftsmodelle und/oder neue Arbeitsmethoden wie agiles Projektmanagement sind nur mit einem neuen Mindset möglich. Dieses wird durch eine Innovationskultur maßgeblich geprägt, wobei nicht nur Prozesse im Innovationsmanagement vorangetrieben, sondern Innovationen als Teil der Unternehmensphilosophie verankert werden. Die Einführung und Etablierung einer Innovationskultur geht in der Regel mit nachhaltigen Veränderungen (Transformationen und Change-Prozesse) einher.
I wie Innovationskulturanalyse
Eine Innovationskulturanalyse misst und bewertet die Erfolgsfaktoren für eine innovative Unternehmenskultur und ermittelt die →Innovationsfähigkeit von Organisationen. Darüber hinaus identifiziert sie die →Innovationsbarrieren und Widerstände, die erfolgreiche Innovationen verhindern und entwickelt einen Score über die →Innovationskraft der nächsten 3 bis 5 Jahre. Hierzu setzt sich die Analyse mit elf Indikatoren auseinander, die Einfluss auf die Innovationskultur haben. Diese umfassen die Unternehmens- und Innovationsstrategie, die Priorisierung und Rahmenbedingungen für ein gemeinsames Wertesystem, die Agilität für notwendige Prozesse und Strukturen, um unterschiedliche Innovationsformate und -grade entwickeln und steuern zu können, das Mindset der Fach- und Führungskräfte, um Kreativität und Innovationen zu fördern, die Diversifizierung der interdisziplinären Teams, den Reifegrad von Fach- und Führungskräften, die notwendigen Ressourcen und Freiräume der Mitarbeiter, der Stellenwert von Innovationen in der internen Unternehmenskommunikation, die Ausprägung einer Risikokultur für ergebnisoffene Innovationen, die Ausprägung einer Fehlerkultur als Voraussetzung für Erkenntnis und Wandel sowie das individuelle Arbeitsumfeld als Grundlage für kreative Ideen, dynamische Veränderungen, agile Arbeitsmethoden und erfolgreiche Innovationen.
Für die Durchführung einer Innovationskulturanalyse stehen qualitative und quantitative Methoden zur Verfügung. Ein bewährtes Modell hierfür ist u. a. der Innovationskulturkompass, der in Anlehnung an das →Befähigungsmodell oder an den →Reifegrad von Organisationen die spezifischen Fragen in vier Quadranten einteilt und mit einem Faktor bewertet, der einen visualisierten Score in einem Spider-Diagramm wiedergibt. Die vier Quadranten bestehen aus der Unternehmensperspektive (z. B. Strategie), der Markt- und Kundenperspektive (z. B. Marktumfeld), der Prozessperspektive (z. B. Entscheidungsprozess) und der Teamperspektive (z. B. Skills).
Das Ergebnis einer Innovationskulturanalyse identifiziert nicht nur Stärken und Schwächen einer Organisation, sondern zeigt konkrete Handlungsfelder und -optionen auf. Sie schafft eine objektive Bewertungsgrundlage und ersetzt bisherige Annahmen und Vermutungen durch empirische Daten und valide Informationen. Subjektive Wahrnehmungen wie Engagement, Loyalität und Identifikation sowie Vertrauen der Mitarbeiter werden messbar und skalierbar und somit für spätere Analysen vergleichbar.
I wie Innovations-Matrix
Die Innovations-Matrix stellt den →Innovationsgrad in das Verhältnis zum →Innovationstyp und visualisiert den Impakt sowie Aufwand und Risiko. Die vertikale Achse beschreibt inkrementelle, radikale und disruptive Innovationen. Auf der horizontalen Achse werden die Produkt-, Prozess-, Verfahrens-, Vertriebs-, Service- und Geschäftsmodellinnovationen eingetragen. Anschließend wird der Aufwand an Ressourcen sowie das Risiko eines möglichen Scheiterns analysiert und bewertet. Ergänzt werden diese Angaben durch die Auswirkungen der Innovation im Markt und/oder eigenen Unternehmen. Somit kann mit der Matrix eine Positionierung der Innovation vorgenommen werden. Wird diese Innovations-Matrix für alle Innovationsprojekte eingesetzt, erhält man einen Innovations-Score und somit eine Priorisierung.
I wie Innovationsprozess
Der Innovationsprozess beschreibt, wie ein Unternehmen Innovationen entwickelt, seine Prozesse kontinuierlich verbessert und Innovationen erfolgreich umsetzt. Er ist als Teil des Innovationsmanagements nach ISO 56002 definiert und weist große Überschneidungen zum Qualitätsmanagement nach ISO 9001:2015 auf.
Der Ursprung geht auf die 1960er Jahre zurück, als der wegweisende Innovationsprozess Phased Project Planning entwickelt wurde, mit dem das Management von Entwicklungsprojekten eingeführt wurde. Die Aufteilung des Prozesses in verschiedene Phasen sollte sicherstellen, dass Fehler von einer Phase nicht in die nächste Phase übertragen werden. Robert G. Cooper entwickelte das noch heute bekannte Stage-Gate-Modell, das den Innovationsprozess in Arbeits- und Entwicklungsphasen (so genannte Stages) und Entscheidungspunkte (so genannte Gates) aufteilte.
Der Stage-Gate-Prozess hat vor allem Vorteile, wenn technologische Entwicklungen systematisch vorangetrieben werden sollen und/oder eine hohe Komplexität aufweisen. Durch Überschneidungen und oftmals fehlende Abgrenzung zum Prozess- und Projektmanagement, dem Risikomanagement und der Prozessoptimierung ist der klassische Stage-Gate-Prozess in den letzten Jahren zunehmend in die Kritik geraten. Dies auch, weil neue Innovationsformen wie zum Beispiel die Entwicklung digitaler Geschäftsmodelle (Business Model Innovation) oder digitalem Servicedesign nicht linear verlaufen und eine höhere Agilität erfordern. Während sich der Stage-Gate-Prozess auch heute noch für die Professionalisierung von inkrementellen Innovationen eignet, ist dieser für digitale und/oder disruptive Innovationen zu unflexibel und daher ungeeignet. Wiederum Robert G. Cooper war es, der 2014 Anforderungen an ein Next Generation Idea-to-Launch System definierte und es „Adaptive and Flexible“ und „Accelerated“ nannte.
Ein erfolgreicher Innovationsprozess sollte
- rechtzeitig Marktchancen identifizieren,
- Kreativität fördern und Inspiration für neue Ideen für Produkte, Services und Geschäftsmodelle liefern,
- ein innovationsförderndes Mindset und das Teamwork unterstützen,
- ein Rapid Prototyping vorsehen,
- die erfolgreiche Implementierung und Vermarktung ermöglichen und
- eine nachhaltige Innovationskultur aufbauen und etablieren.
I wie Innovationsstufe
→Innovationsgrad
I wie Innovationstheater
Der Begriff Innovationstheater wurde von Jean-Philippe Hagmann, einem Experten für radikale Innovationen und Autor des gleichnamigen Buches, geprägt. Er beschreibt damit Maßnahmen von Unternehmen, die nur den Anschein erwecken, innovative Ideen zu entwickeln und zu fördern. Bei einem Blick hinter die (Innovations-)Kulissen wird deutlich, dass diese Unternehmen Innovationen nur als ein Projekt missverstehen und nicht als strategische Unternehmensausrichtung. In diesen Unternehmen sind einzelne Abteilungen oder ein Innovationsmanager für Innovationen zuständig, statt Innovationen als Querschnittsfunktion über alle Hierarchien und über die gesamte Organisation zu etablieren. Nicht selten werden Mitarbeiter in eintägige Methodenschulungen gesteckt und dann erwartet, dass Unternehmen zwangsläufig innovativ werden. Ganz häufig fehlt es an einer klaren Zielsetzung, dem Commitment im Top-Management sowie einer Innovationsstrategie. Der Höhepunkt ist die Einrichtung eines Innovation Lab mit bunten Wänden und/oder Möbeln ohne jegliches Konzept und getreu dem Motto „Hauptsache anders“. Freiräume für kreative Ideen und innovative Konzepte verstehen derartige Unternehmen als Teil des Tagesgeschäfts im üblichen Arbeitsumfeld. Und das Marketing organisiert Ideenkampagnen und feiert jede noch so kleine Veränderung als „radikale Verbesserung“.
Dabei erfordern erfolgreiche Innovationen ein Umdenken in vier Bereichen:
- Organisationsform
- Rollen und Zuständigkeiten
- Prozesse und
- Unternehmenskultur.
Gescheiterte Innovationen sind immer auf vier Ursachen zurück zu führen:
- ein falsches Innovations- und Prozessverständnis,
- fehlende Freiräume für die Mitarbeiter,
- ein falsches Mindset und Vorbildfunktion der Führungskräfte sowie
- eine innovationsfeindliche Unternehmenskultur.
Erfolgreiche Unternehmen haben in ihrem Innovationsmanagement unterschiedliche Rollen und Zuständigkeiten etabliert:
- Sponsor/Mentor im Top-Management
- kreativer Coach
- branchenfremde Querdenker
- pro-aktive Experten
- gut vernetzte Mitarbeiter.
I wie Innovationstiming
Innovationstiming ist ein Synonym für den →zeitorientierten Ansatz der Innovationsstrategie und befasst sich mit dem optimalen Zeitpunkt für den Markteintritt. Unternehmen können selbst entscheiden, ob sie Vorreiter, Pionier und First Mover in ihrer Branche sein wollen oder Nachahmer, Follower und →Late Mover. Bei der Pionier-Strategie verfolgt ein Unternehmen den Ansatz, mit seiner Innovation, seinem Produkt oder seiner Dienstleistung als erstes in einem Zielmarkt einzutreten (First to Market). Der →First Mover Advantage besteht in einer Monopolstellung für einen gewissen Zeitraum, was Marktanteile, Umsätze und Rendite sowie Neukunden und Wettbewerbsvorteile bringt, aber auch Imagegewinn und der frühzeitige Erwerb von Markt-Know-how. Weiterhin besteht die Möglichkeit, Branchenstandards zu definieren und hohe Markteintrittsbarrieren für Wettbewerber aufzubauen. Ideal wäre, diesen Vorsprung durch gewerbliche Schutzrechte abzusichern. Nachteile der Pionierstrategie können sich aus einer evtl. noch unsicheren Marktentwicklung und hohen Markterschließungskosten ergeben. Aus diesem Grund entscheiden sich viele Unternehmen dafür, etwas später in den Markt einzutreten, um das Marktrisiko klein zu halten (Second to Market). Mit ihrer so genannten Late-Mover-Strategie zielen diese Unternehmen darauf ab, vom neu geschaffenen Marktsegment erst dann zu profitieren, wenn Risiken ausgeschlossen werden können, technische und wirtschaftliche Hürden genommen wurden und die Zahl der Anbieter und potenziellen Kunden angewachsen ist. Verfolger werden noch unterschieden, ob sie den Pionier imitieren/kopieren oder modifizieren/weiter entwickeln. Andere Late Mover setzen auf die Entwicklung und Abdeckung noch nicht besetzter Produktnischen („Nischenstrategie“). Nachteile der Verfolgerstrategie bestehen evtl. in hohen Markteintrittsbarrieren, gewerblichen Schutzrechten und einer Vergleichbarkeit, so dass Vorteile in der Regel über einen günstigeren Preis oder über Services „erkauft“ werden müssen.
Das Innovationstiming drückt somit das Selbstverständnis eines Unternehmens in Bezug auf Innovationen aus und definiert, welche Bedeutung Innovationen für die strategische Ausrichtung und den Unternehmenserfolg haben. Es gibt in der Regel keine allgemein gültige „beste Timing-Strategie“, da jedes Unternehmen auf Grundlage seiner Ressourcen und Marktstellung seine „optimale Timing-Strategie“ festlegen muss. Für die Festlegung des optimalen Innovationstimings greift man auf drei strategische Grundkonzepte zurück:
- Lebenszykluskonzept, aus dem sich Strategien in Bezug auf die Erschließung neuer Märkte, Zielgruppen und Kundensegmente ableiten lassen sowie der Gewinnung von Marktanteilen
- Erfahrungskurvenkonzept, aus dem sich Strategien erschließen lassen in Bezug auf Schnelligkeit bei der Leistungserfüllung, Standardisierung oder Preisführerschaft
- komplexe Einflussfaktoren, die individuell die Wahl der Strategie bestimmen und je nach Bedingungen, Möglichkeiten und Veränderungen situativ angepasst werden müssen, um die Wettbewerbsfähigkeit und den Unternehmenserfolg zu sichern.
I wie Innovationsstrategie
Die Innovationsstrategie ist Teil der übergeordneten Unternehmensstrategie und definiert die für das Unternehmen relevanten →Innovationsfelder. Außerdem bestimmt sie die strategische Ausrichtung der Innovationsprojekte und priorisiert Schwerpunkte und Ressourcen. Die Innovationsstrategie fokussiert sich auf zukunftsorientierte Innovationspotenziale wie z. B. →Produktinnovationen, →Prozessinnovationen, →Verfahrensinnovationen, →Vertriebsinnovationen, →Serviceinnovationen oder →Geschäftsmodellinnovationen. Die Innovationsstrategie ist Kompass und Handbuch für alle Innovationsprozesse sowie ein Werkzeug für deren Steuerung (planen, durchführen, umsetzen, messen, optimieren). Außerdem kann die Innovationsstrategie Grundlage für andere Teilstrategien im Unternehmen sein wie z. B. der Digitalisierungsstrategie, Sortimentsstrategie oder Marketingstrategie. Innovationsstrategien sollten konkret, messbar, lösungs- und umsetzungsorientiert, widerspruchsfrei, anschaulich und verständlich sein. Eine optimale Innovationsstrategie muss in Abhängigkeit zum Zielmarkt auf das jeweilige Marktsegment und Geschäftsmodell ausgerichtet sein. Man unterscheidet zwischen dem
- →technologieorientierten Ansatz (Ressourcen),
- →kundenorientierten Ansatz (Bedürfnisse),
- →marktorientierten Ansatz (Wettbewerb),
- →zeitorientierten Ansatz (Zeitfaktor des Markteintritts) und
- →kooperationsorientierten Ansatz (Allianzen).
Die Innovationsstrategie definiert darüber hinaus den Grad der Innovation. Man unterscheidet zwischen →inkrementellen Innovationen, →radikalen Innovationen und →disruptiven Innovationen. Diese sind vom →Technologietyp abhängig. Allein diese kurze Auflistung zeigt, dass eine Innovationsstrategie immer auf das jeweilige Unternehmen zugeschnitten und unternehmensübergreifend abgestimmt sein muss. Das Kopieren einer fremden Innovationsstrategie führt selten zum Erfolg. Schon allein deshalb, da die Innovationsstrategie maßgeblich die Innovationskultur eines Unternehmens bestimmt.
I wie Innovationstyp
Innovationen kann es in vielen Bereichen der Wirtschaft und in der Gesellschaft geben, so dass der Innovationstyp beschreibt, um welche Art von Innovation es sich handelt. Unterschieden werden →Produktinnovationen, →Verfahrensinnovationen, →Prozessinnovationen, →Vertriebsinnovationen, →Serviceinnovationen sowie →Geschäftsmodellinnovationen. Darüber hinaus gibt es auch →Sozialinnovationen und →Umweltinnovationen. Prozessinnovationen werden selten noch in →Organisationsinnovationen und →Managementinnovationen differenziert. Hierbei können Innovationstypen auch ineinandergreifen, so dass eine klare Zuordnung verschwimmt. Gelegentlich werden auch marktmäßige, kulturelle und strukturelle Innovationen differenziert. Die Unterscheidung in inkrementelle, radikale oder disruptive Innovationen erfolgt dagegen über den Innovationsgrad.
I wie innovative Milieus
Bei innovativen Milieus (auch als kreative Milieus bezeichnet) handelt es sich in der Markt- und Innovationsforschung um einen Denkansatz, mit dem die Bedeutung regionaler Netzwerke für die Generierung von Wissen und Entwicklung von Innovationen untersucht werden. In zahlreichen Studien wurde festgestellt, dass die wichtigste Voraussetzung für den wirtschaftlichen Erfolg einer Region die persönlichen Beziehungen verschiedener Akteure aus Politik, Wissenschaft und Wirtschaft ist. Diese dienen dem Austausch von kreativen Ideen, der Schaffung und Etablierung gemeinsamer Werte, Ziele und Strategien für eine Wirtschaftsregion und letztendlich die erfolgreiche Implementierung von Innovationen.
Innovative Milieus konstituieren sich aus
- dem lokalisiertes Produktionssystem (regionale Anhäufung von Unternehmen, Zulieferern, Kunden und Dienstleistern). Diese Akteure sind miteinander verbunden durch Güter-, Arbeitsmarkt-, Technologie- und Informationsverflechtungen. Man spricht auch von der lokalisierten Form einer unternehmensübergreifenden Wertschöpfungskette.
- Sozio-institutionelle Einbettung in formelle und informelle Institutionen wie Ausbildungszentren und Forschungseinrichtungen, aber auch eine gemeinsame lokal vorhandene Kultur und Mentalität.
- Innovations- und Lernprozesse sowie lokalisierte (formelle und informelle Kommunikations- und Informationsflüsse innerhalb der entsprechenden Region. Daraus ergeben sich regionale Wettbewerbsvorteile gegenüber anderen Regionen.
Unternehmen lassen sich anhand ihres Innovationserfolgs und ihres Innovationsprofils in sieben innovative Milieus unterscheiden. In einem Diagramm misst die y-Achse den Innovationserfolg von gering bis hoch und die x-Achse erfasst das grundlegende Innovationsprofil. Zu den sieben innovativen Milieus zählen:
→ Technologieführer
→ disruptive Innovatoren
→ konservative Innovatoren
→ kooperativen Innovatoren
→ zufälligen Innovatoren
→ passiven Umsetzer
→ Unternehmen ohne Fokus auf Innovationen
I wie intelligente Verpackungen
Digitale Verpackung oder Smart Packaging sind sehr unspezifische Begriffe und stehen für unterschiedliche Anwendungen:
- Unter extended Packaging werden Verpackungen beschrieben, die durch Design, Material oder Form besonders effizient oder nachhaltig sind. Hierzu gehören z. B. Bio- oder Recycling-Verpackungen, Ein-Hand-Verpackungen oder spezielle Oberflächen-Sensorik auf der Verpackung, mit der die Materialität des Inhalts über die Verpackung nachempfunden wird. Weitere Beispiele sind Unboxing-Experience oder auch „Wackaging“ als Synonym für „bekloppte / freche“ Verpackungen, auch wenn diese aktuell nur im B2C-Bereich anzutreffen sind. Die Verpackung als Eyecatcher und Trigger für Verkaufsentscheidungen ist sicherlich im übersättigten B2C-Markt eine vorübergehende Trendentwicklung, die nicht einfach auf den B2B-Bereich und schon gar nicht auf den Baubereich übertragen werden kann. Hier gelten andere Gesetzmäßigkeiten und Mechanismen; außerdem findet das Markenversprechen auf der Leistungsebene statt. Dennoch zeigt die Entwicklung, dass eine Verpackung eben nicht nur transportiert wird, im Regal liegt und nach deren Benutzung entsorgt wird. Verpackung hat sich im B2C-Bereich längst zum stillen Verkäufer entwickelt.
- Reaktive Verpackungen treten zu einem bestimmten Zeitpunkt in Wechselwirkung mit dem Inhalt und deren Eigenschaften und können diese aktivieren und verändern.
- Aktive Verpackungen dienen in erster Linie dazu, mehr Informationen anzuzeigen, als auf der Verpackung möglich sind. Im B2C-Bereich sind dies in erster Linie Verbraucherinformationen über Inhaltsstoffe, Allergene und dgl. und ersetzen den Beipackzettel. Diese kommen vor allem bei Lebensmitteln und Kosmetik zum Einsatz. Entwicklungen wie Augmented oder Virtual Reality werden eingesetzt, um über die Verpackung Werbetrailer auszustrahlen, um sich teure TV-Spots zu sparen.
- Darüber hinaus gibt es intelligente Verpackungen, die mit dem Anwender über dynamische Eigenschaften oder Veränderungen im Zustand des Inhalts „kommunizieren“. Dies können Veränderungen z. B. über Temperatur und Feuchtigkeit sein, aber auch welche, die durch Mikroorganismen oder Gasentwicklung verursacht werden. Über spezielle Sensoren können darüber hinaus Erschütterungen oder Öffnungen registriert werden, die ggf. auf Lagerdauer und Frische usw. Auswirkungen haben können. Bei der intelligenten Medikamentenverpackung z. B. wird die Einnahme der Medikamente überwacht. Bei fälschlicher Dosierung oder dem Vergessen der Einnahme löst die Verpackung einen akustischen oder optischen Alarm aus.
Möglich machen diese Anwendungen so genannte Smart Labels, also elektronische Etiketten. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet.
I wie Intenterkennung
Damit ein digitaler Sprachassistent oder ein Chatbot funktionieren, müssen diese Systeme die Absicht des Nutzers (englisch Intent) erkennen können. Hierzu brauchen sie einen Impuls, der durch die Eingabe oder Auswahl ausgelöst wird. Kann der Sprachassistent oder der Chatbot in einer Nutzeräußerung (Utterance) einen Intent ausreichend sicher erkennen (ermittelt über einen dahinterliegenden Score-Wert) führt er die im Intent festgelegte Reaktion aus. Dies ist in der Regel eine Antwort, kann aber auch die Anzeige eines Bildes oder Videos sein. In der Regel ist ein Intent mit einer Antwort verbunden, die als Bestätigung dient und/oder den nächsten Schritt auslöst. Da Menschen sich zu ein und derselben Sache unterschiedlich äußern (Umschreibung, Mundart, Synonyme usw.) basiert ein Intent nicht nur auf genau einer Utterance (Äußerung), sondern auf Kombinationen und Ähnlichkeiten. Sprache basiert allerdings auf Struktur und Regeln (Grammatik) und nicht auf thematische Ähnlichkeit. Diese Abweichungen versucht das System über eine KI zu erkennen und zu erlernen. Denn die Ausdrucksvielfalt der natürlichen Sprache resultiert nicht einfach nur daraus, dass man eine gigantisch große Menge von Textähnlichkeiten memoriert, sondern durch die regelgeleitete Kombination und Interpretation von Worten.
I wie Internet der fliegenden Dinge
→Drohnenökonomie
I wie Internet of Everything (IoE)
Der Begriff →Internet of Things (IoT) steht für die Verbindung von physischen Dingen (Objekte, Maschinen, Geräte usw.), auf die über das Internet zugegriffen wird. Das Internet of Everything (IoE) ist eine weitere Stufe in der Evolution des Internet of Things (IoT). Es umfasst neben der Vernetzung zwischen Maschinen (Machine-to-Machine) mittels Sensordaten auch die Kommunikation zwischen Computer und Mensch (Machine-to-People) und die technologieunterstützte Interaktion zwischen Menschen (People-to-People). Der Mensch wird mit Daten, Gegenständen und Maschinen in einen sinnvollen Zusammenhang gebracht und in einem komplexen System erfasst. Zusätzlich werden Prozesse mit eingebunden. Grundlage für dieses gigantische Potenzial ist die →Künstliche Intelligenz und insbesondere das →Machine Learning. Intelligente Maschinen greifen auf einen immensen Datenbestand zu und schaffen die Voraussetzungen, um alle Bereiche der Wirtschaft sowie des alltäglichen Lebens zu automatisieren. Selbst komplexe Prozesse, die auf den Input und Import aus verschiedensten Datenquellen angewiesen sind, können mit dem Internet of Everything technisch abgebildet und automatisiert werden – und dies in Echtzeit und an jedem Ort. Dies war der Grund, warum der bisherige Begriff Internet of Things eben nicht mehr ausreichte und folgerichtig das Internet of Everything geboren wurde.
I wie Internet of Experiences (IoX)
Der Begriff →Internet of Things (IoT) steht für die Verbindung von physischen Dingen (Objekte, Maschinen, Geräte usw.), auf die über das Internet zugegriffen wird. Das Internet of Experiences (IoX) ist eine weitere Stufe in der Evolution des Internet of Things (IoT) und nutzt dieses, um sich selbst weiter zu entwickeln. Daher konzentriert sich das IoX auf die Verbindungen zwischen den Objekten, Maschinen und Geräten und analysiert die potenziellen Möglichkeiten. Das Internet of Experiences ist weniger eine technologische Weiterentwicklung des Internet, sondern impliziert einen konsequent kundenzentrierten Ansatz für Smart City, Smart Home, Smart Factory oder Smart Work usw. Der Fokus des IoX liegt nicht nur darin, innovative Services zu entwickeln, um die Lebensqualität in allen Bereichen zu verbessern, sondern die Voraussetzungen für ein Höchstmaß an Personalisierung zu schaffen.
I wie Internet of Things (IoT)
Mit dem Begriff Internet of Things (IoT) werden Technologien einer globalen Vernetzung beschrieben, mit der physische und virtuelle Dinge (Objekte, Maschinen, Geräte usw.) miteinander verbunden sind und durch Informations- und Kommunikationstechniken miteinander kommunizieren und zusammenarbeiten. Die implementierten Funktionen dieser Technologien erlauben nicht nur die Interaktion zwischen Menschen und Maschinen in vernetzten elektronischen Systemen, sondern auch zwischen den Systemen selbst. Das Internet of Things gilt als eine der Schlüsseltechnologien im 21. Jahrhundert. Die Vision eines Internets der Dinge wurde bereits Anfang der 1990-er Jahre von Mark Weiser beschrieben, als er in seinem Aufsatz „The Computer for the 21st Century“ erstmals den Begriff „Ubiquitous Computing“ erwähnte und einen Bezug herstellte, Objekte mit Sensoren auszustatten, die nahtlos und allgegenwärtig sind. Der Begriff „Internet of Things“ geht auf Kevin Ashton zurück, der ihn 1999 erstmals verwendete. Durchgesetzt hat sich der Begriff allerdings erst durch die Aktivitäten der „Auto-ID Labs“. Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann diese Technologie nur als ein Vorreiter gesehen werden, da eine Möglichkeit für die direkte Kommunikation über Internetprotokolle fehlt. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.
Experten rechnen damit, dass die Zahl der vernetzten IoT-Geräte in den nächsten Jahren auf 20 bis 25 Milliarden ansteigen wird. Damit die „Dinge“ in einer hypervernetzten Welt miteinander kommunizieren können, brauchen sie eine eindeutige Identität, die →Identity of Things (IDoT). Synonym werden für das IoT auch Begriffe wie →Ubiquitous Computing, →Pervasive Computing, →Industrie 4.0, →Cognitive Computing oder →cyber-physische Systeme verwendet.
I wie Invention
Invention bezeichnet die Idee oder Erfindung vor einer Innovation. Diese ist in der Öffentlichkeit unbekannt und in der Regel noch nicht marktfähig. Eine Invention kann die Quelle und Auslöser für eine Innovation werden, muss es aber nicht. Sie markiert lediglich den Anfang der Ideenphase bzw. den Start im „Innovationstrichter“ (engl. Innovation Funnel).
I wie Ishikawa-Methode
Um die Beziehung zwischen Ursache und Wirkung zu analysieren und die Konsequenzen grafisch darzustellen gibt es eine Reihe von Methoden wie z. B. die Ursache-Wirkungs-Tabelle (engl. Cause and Effect Matrix) oder die Fehlerbaumanalyse (engl. Fault Tree Analysis). Hierbei werden alle Problemursachen identifiziert und ihre Abhängigkeiten visualisiert. Die bekannteste Form wurde in den 1940-er Jahren durch den japanischen Wissenschaftler Kaoru Ishikawa entwickelt, der als Pionier der japanischen Qualitätskontrolle gilt. Seine Ursache-Wirkungs-Analyse, auch als 8W-Methode oder Fischgräten-Diagramm bekannt, wurde später nach ihm benannt. Das Ishikawa-Diagramm ähnelt einem Fisch mit seinen Gräten und visualisiert den Zusammenhang zwischen Ursachen und einer darauf beruhenden positiven oder negativen Wirkung bzw. eines dadurch maßgeblich beeinflussten Ergebnisses. Ziel ist, alle Ursachen eines Sachverhalts zu identifizieren und die untereinander vorhandenen Abhängigkeiten darzustellen. Bei der Analyse komplexer Problemstellungen kann das Diagramm den Klärungsprozess vereinfachen und so zur Entscheidungsfindung beitragen.
Das Ishikawa-Diagramm besteht aus dem Kopf (hier wird das zu analysierende Problem benannt) und den Hauptzweigen (Fischgräten). Der Zusammenhang zwischen Ursachen und Wirkung wird im Diagramm mit horizontalen und diagonalen Pfeilen dargestellt, die . Die Ursachen werden vier Kategorien zugeordnet:
- Material (z. B. Werkstücke, Rohstoffe, Zulieferteile),
- Maschine (z. B. Arbeitsmittel. Arbeitsplätze),
- Methode (z. B. Organisationsstrukturen, Arbeitsabläufe und -prozesse),
- Mensch (z. B. Erfahrungen, Expertise, Kompetenzen).
Dieses Schema wurde in den letzten Jahren individuell um die Milieus (z. B. Umfeld, exogene Faktoren, Wettbewerb, Kunden) zu 5M erweitert sowie um das Management (z. B. Vision, Mission, Unternehmenswerte, operative und strategische Entscheidungen) zu 6M und um Measurement (z. B. Output, Leistung, Ergebnis) und Money (Finanzen) zu 8M.
Anhand der Expertise und Erfahrungen wird analysiert, ob die richtige Ursache(n) für das Problem ermittelt wurde(n). Statistisch kann die Annahme, dass die identifizierte Ursache eine Hauptursache ist, mit einem Signifikanztest (Hypothesentest) gestützt werden.
I wie ISO 56002
ISO 56002 ist der erste internationale Standard für das Innovationsmanagementsystem. Es unterstützt Unternehmen dabei, eine Innovationsvision zu entwickeln und diese in eine konkrete Innovationsstrategie zu überführen, in der Ziele, Kennziffern und Maßnahmen benannt werden sowie Prozesse zu etablieren, um diese zu erreichen. ISO 56002 ist vergleichbar mit anderen Managementsystemen wie ISO 9001:2015 (Qualitätsmanagement) und standardisiert das Innovationsmanagement, in dem Innovationsprozesse professionalisiert und effizient sowie effektiv gestaltet werden. Infolgedessen soll die Innovationsfähigkeit eines Unternehmens gesteigert werden. Hierzu soll die Fähigkeit gestärkt werden, verändernde Marktbedingungen rechtzeitig zu erkennen, zu verstehen und darauf zu reagieren, neue Gelegenheiten zu verfolgen, das Wissen und die Kreativität von Menschen innerhalb der Organisation zu nutzen sowie mit Externen in Form von Kollaboration neue Ideen, Konzepte und Strategien zu entwickeln.
Identity of things (IDoT)
I wie Identity of things (IDoT)
Die Identity of Things (IDoT) ist ein wesentlicher Bestandteil des →Internet of Things (IoT). Erst mit der exakten Adressierbarkeit wird das gezielte Suchen und Auffinden von Dingen im Internet ermöglicht. Ein „Ding“ kann in diesem Zusammenhang jede Entität sein, einschließlich physischer und logischer Objekte, die eine eindeutige Kennung und die Fähigkeit hat, Daten über ein Netzwerk zu übertragen. Diese Entität muss global eindeutig identifizierbar sein. Die Identität der Dinge stellt dies sicher und weist den Dingen wie Geräten und Objekten eindeutige Kennungen (UID) mit den dazugehörigen Metadaten zu. Dies ist die Voraussetzung dafür, dass sich diese mit anderen Dingen über das Internet verbinden und effektiv mit ihnen online kommunizieren können. Angaben zu den Identitäten von IoT-Dingen gehören z. B. der Lebenszyklus. Des Weiteren ist der Beziehungsstatus interessant, also die Informationen, mit welchen anderen Dingen oder Entitäten eine Verbindung besteht. Denn neben anderen Geräten oder Objekten können auch Beziehungen zu Administratoren und anderen Verantwortlichkeiten bestehen. Durch den Einsatz und Einfluss von →Künstlicher Intelligenz spielt auch der Kontext eine immer wichtigere Rolle. Das Identitäts- und Zugriffsmanagement für IoT-Entitäten muss kontextabhängig sein. Der Zugriff z. B. für eine Entität kann unter bestimmten Umständen angemessen sein; der Zugriff auf eine andere Entität dagegen unangemessen oder sogar gefährlich sein. Ein Problem stellt aktuell noch die Authentifizierung dar. Während eine multifunktionale Authentifizierung beim Menschen funktioniert, ist dies für IoT-Dinge noch nicht anwendbar, da viele Methoden wie z. B. die biometrische Verifizierung nicht relevant sind.
IFC-Format
I wie IFC-Format
Bekanntlich können proprietäre Dateiformate nur von spezifischen und/oder autorisierten Softwares gelesen werden. Für einen offenen Austausch von Daten ohne Einschränkungen im Zugriff und/oder der Implementierung, wie dies für die Abwicklung von →BIM (Building Information Modeling) Objekten notwendig ist, sind diese ungeeignet. Aus diesem Grund wurde das IFC-Format (Industry Foundation Classes) entwickelt, um einen offenen Datenaustausch und -zugriff sicher zu stellen. Hierbei handelt es sich um einen offiziellen und internationalen Standard ISO 16739:2013 in Form einer herstellerneutralen „Sprache“ zum Austausch von Modelldaten. Für alle in der Bau- und Immobilienbranche gängigen Objekte wurde ein eigenes Format (IFC Objekttyp) definiert. Dieses umfasst einen festgelegten Datensatz an im Minimum notwendigen Informationen, damit die in den Modelldaten „verbauten“ Objekte bei der Übergabe von allen (CAD) Programmen gleichermaßen verstanden und interpretiert werden können. IFC-Formate wie z. B. IFC-SPF, IFC-XML, IFC-ZIP) umfassen geometrische und nicht-geometrische Einheiten, enthalten die Gebäudegeometrie und mit den Elementen verbundenen Daten.
Immersiv
I wie Immersiv
Der Begriff „immersiv“ taucht zunehmend im Zusammenhang mit →augmented Reality und/oder →virtual Reality auf und beschreibt den Effekt, den virtuelle oder fiktionale Welten auf den Betrachter haben. Seine Wahrnehmung in der realen Welt reduziert sich und gleichzeitig nimmt die Identifikation mit der virtuellen oder fiktiven Welt zu. Der Nutzer taucht quasi komplett in die Scheinwelt ein, was die Herkunft des englischen Begriffes „immersion“ (auf Deutsch so viel wie „Eintauchen“ oder „Vertiefung in eine Sache“) erklärt. Der Begriff darf nicht mit der Faszination verwechselt werden, die teilweise auch bei 3D Filmen oder 3D Animationen entstehen kann. Diese passive Form der Immersion ist nicht vergleichbar mit einer Interaktion in einer virtuellen Umgebung, wodurch eine wesentlich höhere Intensität der Immersion erreicht werden kann. Der Begriff immersiv taucht deshalb zunehmend im Zusammenhang mit Gamification auf. Ist der Grad an interaktiven Immersion besonders hoch, wird auch von der „Präsenz“ und dem „immersive virtual environment“ gesprochen. Typische Effekte sind z. B. ein besonders realistisches Verhalten von computergesteuerten Figuren, ein hoher grafischer Detailgrad, pseudoreale Darstellungen, vielfältige Möglichkeiten mit der Umgebung zu interagieren sowie eine hohe Stimmigkeit der fiktiven Umgebung. Die Geschlossenheit der simulierten Illusion führt zu dieser hohen Identifizierung mit der virtuellen Welt.
Indifferente
I wie Indifferente
→Net Promoter Score (NPS)
Industrie 4.0
I wie Industrie 4.0
Der Begriff „Industrie 4.0“ beschreibt die vierte Stufe der industriellen Revolution. Während die 1. Stufe für die Einführung mechanischer Produktionsanlagen mithilfe von Wasser- und Dampfkraft stand, die 2. Stufe für die Einführung arbeitsteiliger Massenproduktion mithilfe von elektrischer Energie und die 3. Stufe für den Einsatz von Informationstechnologien und Automatisierung, beschreibt die 4. Stufe die Vernetzung der traditionellen Industrie mit internetbasierten Technologien aus den Bereichen der Informations- und Kommunikationstechnik. Man bezeichnet die 4. Stufe daher oft auch als digitale Transformation. Hierzu gehören das Internet wie IPv6, →Internet of Things usw., Hardware wie Smart Devices, →Cloud Computing, →Augmented Reality usw., eingebettete Mikrosysteme wie Mikroprozessoren und -sensoren, Software und semantische und Big-Data-Technologien sowie Kommunikation wie 5G, WiFi, Near Field Communication usw. Innovationen in diesem Bereich bilden die Grundlage für das →Internet of Everything (IoX), in dem Dinge, Daten, Menschen, Services und anderes untereinander vernetzt sind und miteinander kommunizieren können. Industrie 4.0 führt zu einer grundlegenden Transformation von Produkten, Services, Produktions- und Wertschöpfungsprozessen und somit der kompletten Industrie. Längst geht es bei Industrie 4.0 nicht mehr nur um die digitale Transformation der internen Prozesse, sondern auch um die smarte Vernetzung von Geschäftsprozessen bis hin zu komplett neuen Businessmodellen, die in letzter Konsequenz zu einem ganzheitlichen und nachhaltigen →E-Business führen.
Industrie 5.0
I wie Industrie 5.0
Der Begriff →Industrie 4.0 ist gerade einmal zehn Jahre alt und schon taucht mit „Industrie 5.0“ ein neuer Begriff auf. Ein Begriff, der suggeriert, dass die vierte industrielle Revolution bereits abgeschlossen und reif für die nächste Evolutionsstufe ist. Die Realität sieht anders aus: ein Großteil der Unternehmen ist immer noch nicht in der Industrie 4.0 angekommen. Das, was allgemein unter Industrie 4.0 verstanden wird, verdient bestenfalls die Bezeichnung 3.5. In der Industrie 4.0 ermöglichen so genannte →cyber-physische Systeme intelligente Anwendungen und eine allumfassende Transparenz. Infolgedessen können hoch effiziente, auf Daten basierte Entscheidungen in allen unternehmensrelevanten Bereichen getroffen werden. Einen umfassenden digitalen Zwilling in einer komplexen Umgebung zu modellieren und zu kontrollieren, der sich ständig verändert und weiterentwickelt, ist die Herausforderung der Industrie 4.0. Daher wird der Begriff Industrie 5.0 mehr synonym verwendet für eine Industrie, die über reine Effizienz und Produktivität hinausgeht und für Nachhaltigkeit und Resilienz steht. Sie rückt den Menschen wieder mehr in den Mittelpunkt und misst sich an den Beitrag des Unternehmens für Umwelt und Gesellschaft. Infolgedessen werden digitale Transformation und künstliche Intelligenz mit modernen Führungsqualitäten kombiniert.
Infrastructure as a Service“ (IaaS)
I wie Infrastructure as a Service“ (IaaS)
Der Begriff „Infrastructure as a Service“ (IaaS) beschreibt eine Dienstleistung des →Cloud-Computing, bei dem Unternehmen über das Internet der Zugriff auf eine sofort nutzbare, hochgradig skalierbare IT-Infrastruktur angeboten wird. Hierzu betreibt der Anbieter eigene Rechenzentren, in denen entsprechende Hardware gelagert, administriert und gewartet wird. Somit können Anbieter von IaaS-Lösungen den Zugriff auf Rechenleistung (Prozessor, Arbeitsspeicher, Festplattenspeicher und dgl.) und komplette Netzwerkstrukturen (inklusive Firewalls, Routern und Sicherheits-/Back-up-Systemen) sicherstellen. Diese grundlegenden IT-Infrastruktur-Bausteine werden in Form virtueller Maschinen (VM) oder Virtual Local Area Networks (VLANs) zur Verfügung gestellt. Der Kunde greift auf diese Cloud-Ressourcen via APIs über das Internet zu und entscheidet über den Umfang der in Anspruch genommenen Ressourcen (Server, Router, Firewalls usw.) und deren Leistungsdaten (CPU, RAM etc.). Somit stellen IaaS-Lösungen eine Alternative zu internen Ressourcen dar, da für deren Management keine eigene Infrastruktur benötigt wird. Die gesamte Administration sowie der Service fallen in den Aufgabenbereich des Anbieters. Hierzu gehören neben dem Aufbau, der Instandhaltung und regelmäßigen Modernisierung der Infrastruktur die Absicherung des Rechenzentrums gegen äußere Einflüsse, die Bereitstellung von Rechenleistung und Speicherplatz sowie den Zugang, damit Kunden auf die offerierten IaaS-Ressourcen zugreifen und diese administrieren können. Diese lassen sich je nach Bedarf jederzeit hoch- oder herunterskalieren. Diese hohe Flexibilität resultiert daraus, dass IaaS-Angebote nicht an dedizierte Hardware gebunden sind, so dass der Anbieter die Ressourcen seiner Rechenzentren jederzeit bedarfsoptimiert unter seinen Kunden aufteilen kann. Die Abrechnung erfolgt über das Pay-per-Use-Verfahren, bei dem Kunden nur das bezahlen, was sie tatsächlich genutzt haben. Infrastructure-as-a-Service funktioniert nach dem Shared-Responsibility-Prinzip (dt. Prinzip der geteilten Verantwortung). Sowohl der Anbieter als auch der Kunde haben unterschiedliche Aufgabenbereiche und Zuständigkeiten, damit die Ressourcen optimal bereitgestellt und/oder genutzt werden können.
Inkrementelle Innovation
I wie Inkrementelle Innovation
Kleinere Neuerungen wie z. B. die Verbesserung von Produkteigenschaften oder die Entwicklung neuer Produkt-Features, die Erweiterung von Anwendungen oder Einsparung von Zeit und/oder Kosten in der Applikation, die Veränderung von Prozessen und Abläufen im Sinne höherer Effizienz usw. werden als Produktmodifikation bezeichnet. Größere Veränderungen und Entwicklungen mit einem hohen Grad an Neuigkeit, Alleinstellungsmerkmale und der Bereitschaft der Bedarfsgruppen, höhere Preise zu zahlen, werden als inkrementelle Innovation bezeichnet. Diese sind gekennzeichnet dadurch, dass sie innerhalb eines bestehenden Sortimentes, Marktsegmentes und/oder Bedarfsgruppe einen Mehrwert bieten, aber auf der Basis des bisherigen Markt- oder Geschäftsmodells.
Bei der inkrementellen Innovation geht es mindestens darum, Produkte und Dienstleistungen durch zusätzliche Eigenschaften anzureichern, die aus Sicht der Bedarfsgruppen einen Mehrwert darstellen. Dies müssen nicht zwangsläufig technische Features sein, sondern können sich auch auf Prozesse beziehen oder Bedarfsgruppen als Unternehmer unterstützen, um erfolgreich zu sein. Für inkrementelle Innovationen hat sich über Jahre der klassische Stage-Gate-Prozess bewährt, dem häufig ein Ideenmanagement vorgeschaltet ist.
Aufgrund der parallel stattfindenden Transformation in Unternehmen reicht dieser längst nicht mehr aus. Für heute noch eher produktorientierte Unternehmen wird daher das House of Innovation eingesetzt, um das klassische Innovationsmanagement zu professionalisieren. Hierbei hat sich bewährt, die operative Innovationssteuerung mit dem strategischen Innovationsmanagement zu kombinieren und nach einem definierten Zeitraum ein Review durchzuführen.
Inkubator
I wie Inkubator
Inkubatoren sind Einrichtungen oder Institutionen, die Unternehmer auf ihrem Weg in die Selbstständigkeit und Existenzgründung unterstützen. Die Bezeichnung kommt ursprünglich nicht aus der Wirtschaft, sondern aus der Medizin, in der eine Art Brutkasten für Frühgeborene als Inkubator bezeichnet wird und dafür sorgt, dass ein optimales Klima geschaffen wird, in dem die Neugeborenen in Ruhe heranwachsen können. Im übertragenen Sinne übernehmen Inkubatoren auch für Unternehmensgründer und Startups eine solche Funktion, da sie diesen eine Umgebung mit optimalen Rahmenbedingungen zur Verfügung stellen, um erfolgreich in das Geschäftsleben zu starten und gesundes Wachstum zu ermöglichen. Infolgedessen steigen die Überlebens- und Wachstumschancen von neuen Unternehmen. Inkubatoren fungieren nicht nur als Investor, in dem sie Geldmittel zur Verfügung stellen, sondern auch, in dem sie ihr Netzwerk, gewisse Infrastrukturen sowie wertvolles Know-how zur Verfügung stellen, bei der Ideenfindung und dem Teambuilding unterstützen sowie bei der Entwicklung und Ausgestaltung des Geschäftsmodells und Businessplans. Auch ihre Rolle im Mentoring sollte nicht unterschätzt werden. Als Gegenleistung erhalten die Inkubatoren Anteile am Geschäftsmodell und gewisse Einflussmöglichkeiten. Die Aufgabe eines Business Accelerator ähnelt in vielen Punkten denen eines Inkubator. Der Unterschied liegt darin, dass Business Acceleratoren Startups nur über einen kleinen Zeitraum begleiten und den Fokus auf schnelles Wachstum und einen maximal gewinnbringenden Ausstieg legen. Außerdem liegt der Schwerpunkt häufig weniger auf der Unternehmensentwicklung als mehr auf der schnellen Entwicklung eines marktreifen Produktes.
Innotekten
I wie Innotekten
Als Brutkasten für kreative Innovationen und als bebaute Unternehmenskultur für mehr Agilität und Veränderung unterscheidet sich ein →Innovation Space durch seine Geometrie, Ausstattung und Gestaltung von den vorhandenen Büro-, Besprechungs- oder Seminarräumen. Der multisensorische, flexible Raum schafft ein ideenförderndes Umfeld und stellt alle notwendigen Flächen und Werkzeuge zur Verfügung, um Ideen zu entwickeln, zu kanalisieren, zu strukturieren und systematisch weiter zu entwickeln. Ob kreative Ideenräume, agile Arbeitsbereiche oder der Marktplatz der Innovationen – die Konzeption, Entwicklung und Gestaltung von innovativen Räumen folgt einer klaren Methodik und Didaktik, um auf Verhaltensmuster von Menschen zu reagieren und kreative Potenziale zu fördern. Außerdem geht es darum, aus der täglichen Routine auszubrechen und andere Sichtweisen zu entwickeln. Infolgedessen geht es bei innovativen Raumkonzepten um deutlich mehr als nur um moderne Gestaltungs- oder Einrichtungskonzepte. „Innotekten“ ist ein ganzheitliches Raumkonzept als Ausdruck einer innovationsfreundlichen Unternehmenskultur. Das von der e-nnovalytics entwickelte Konzept setzt sich auf drei Ebenen mit der Rolle und Funktionalität von Räumen auseinander und stattet diese mit individualisierten Modulen aus, bevor eine personalisierte und interaktive Umsetzung mit den Beteiligten erfolgt. So werden neben innovativen Räumen auch agile Kollaboration, produktives Co-Working, professionelles Netzwerken und spannende Events ermöglicht und Veränderungsprozesse und silobefreites Denken in der Organisation gefördert.
Die erste Ebene des Raumkonzeptes definiert die Rolle und Funktion der Räume. Nach der Typologie werden 5 funktionale Räume unterschieden:
- gemeinsam (alle Räume, in denen es um Kommunikation, Zusammenarbeit, Abstimmung und dgl. geht)
- neues (hier geht es um Kreativität, Experimentieren, Brainstorming etc.)
- ruhig (Räume, in denen man sich konzentrieren muss oder monotone Arbeit verrichtet)
- versorgen (hierzu gehören Kantine, Etagenküche, Kopierräume usw.) und
- virtuell (hierbei handelt es sich um virtuelle Räume wie Videokonferenzen genauso wie digitale Messen oder interaktive POS)
In der zweiten Ebene setzt sich das Konzept mit 7 individualisierten Bausteinen auseinander. Diese bestehen aus Kommunikation, Inspiration, Flexibilität, Technologie, Sensorik, Identität und Interaktion. Der letzte der sieben individualisierten Bausteine führt nahtlos in die dritte Ebene des Konzeptes – die interaktive Umsetzung, Individualisierung und Personalisierung, also die aktive Einbindung der Mitarbeiter. Bei der Einrichtung setzt das Konzept auf den Wohlfühlfaktor und die Funktionalität sowie auf die psychologische Wirkung aus Farben und Formen, Licht und Akustik sowie gesundheitliche Aspekte. Im Konzept geht es um das richtige Verhältnis und die Wechselwirkung zwischen Beschleunigen und Entschleunigen, Anspannung und Entspannung sowie kreativen Ideen und zielgerichteter Umsetzung – also ein differenziertes Raumkonzept je nach Funktionalität, Interaktion und Dynamik.
Innovation
I wie Innovation
Innovation ist ein stark strapazierter Begriff und steht für eine Neuerung in Bezug auf Denkhaltungen, Geschäftsmodelle, Märkte, Prozesse, Strukturen, Lösungen und/oder Produkte, die es in der Form bislang noch nicht gegeben hat und einen positiven und messbaren Effekt hat und einen Mehrwert für den externen und internen Kunden hat und bei diesen Akzeptanz findet und eine Differenzierung vom Marktumfeld erzielt. Innovationen sind keine Aufgabe einer Abteilung, sondern müssen Querschnittsfunktion über alle Unternehmensbereiche und Fachabteilungen sein und zum Selbstverständnis aller Mitarbeiter werden. Eine hohe Expertise und viel Know-how sind keine Garantie für erfolgreiche Innovationen, es bedarf auch einer organisatorischen, kulturellen und methodischen Ebene. In erster Linie ist Innovation eine Geisteshaltung der Unternehmensführung und -ausrichtung.
Bereits 2008 schlug der OECD-Report „The New Nature of Innovation“ einen erweiterten Innovationsbegriff vor, der neben der →Produktinnovation auch die →Verfahrensinnovation, →Prozessinnovation, →Serviceinnovation, →Vertriebsinnovation sowie die →Geschäftsmodellinnovation beinhaltete und die Transformation von Organisationen in den Fokus nahm.
Innovation Balanced Scorecard
I wie Innovation Balanced Scorecard
Der traditionelle Ansatz, um Innovationen zu budgetieren und den Erfolg an statischen Kennziffern wie z. B. dem F&E-Budget, Anzahl oder Einnahmen aus Patenten, Umsatzanteile von Neuprodukten etc. zu messen, funktioniert heute aufgrund der Verkürzung der Produktlebenszyklen und der Dynamik von Innovationsprojekten nicht mehr. Modernes Innovationsmanagement braucht spezifische Methoden und Instrumente für eine ganzheitliche Betrachtung und agiles Projektmanagement. Ein Ansatz ist die Innovation Balanced Scorecard, die sich zur Planung und Kontrolle von Projekten im Innovationsmanagement an dem bewährten Modell der Balanced Scorecard anlehnt. Den Rahmen gibt die Unternehmens- und Innovationsstrategie vor. Die Innovation Balanced Scorecard umfasst die vier Perspektiven:
- Innovationskultur
- Innovationsressourcen
- Innovationsprozess
- Innovationsoutput
Die Innovation Balanced Scorecard erweitert das System finanzieller Kennzahlen um nicht-finanzielle Kennzahlen und ermöglicht dadurch, über die rein operative Perspektive des Unternehmens hinaus dessen Mission und Leitbild in materielle Ziele zu übersetzen und diese überprüfbar zu machen. Somit berücksichtigt dieser Ansatz auch die immateriellen Vermögenswerte, die zunehmend als erfolgskritischer Wettbewerbsfaktor gesehen werden und über das traditionelle Rechnungswesen nicht abgebildet werden können.
Die zur Absicherung des Kerngeschäfts vorhandenen Standardprozesse unterscheiden sich teilweise erheblich von denen des Innovationsmanagements. Dies ist vor allem in den vielfältigen Dimensionen der unterschiedlichen Innovationen sowie der Werkzeuge im Innovationsmanagement begründet. Dies abzubilden ist Aufgabe der Innovation Balanced Scorecard.
Innovation Funnel
I wie Innovation Funnel
Unter dem Begriff Innovation Funnel versteht man eine Phase im →Innovationsprozess, in der die Selektion der vorhandenen kreativen und innovativen Ideen sowie deren notwendigen Schritte zu einer möglichen Realisierung vorgenommen wird. Dieser Innovationstrichter dient dazu, aus den kreativen Ideen in der Anfangsphase innovative Ansätze zu identifizieren, um dann in weiteren Phasen die Innovationsideen zu verdichten und die „besten“ →Innovationen herauszufiltern.
Innovation Lab
I wie Innovation Lab
Innovation Labs (oder auch nur „Lab“ – so die neudeutsche Bezeichnung) sind physische und/oder virtuelle Räume, die der Initiierung, Entwicklung und Umsetzung kreativer und innovativer Ideen dienen. Die auch als Hubs, Inkubatoren oder Kreativwerkstätten bezeichneten Räume ermöglichen durch ihre reale und/oder virtuelle Infrastruktur eine offene, oft zeitlich begrenzte Zusammenarbeit zwischen kreativen Köpfen. Dies können Mitarbeiter aus dem Unternehmen, bestehende Kunden oder potentielle Neukunden, Lieferanten, Hochschulen, Innovationsagenturen oder Forschungseinrichtungen sein.
Damit kreative Ideen und innovative Denkprozesse stimuliert werden können, müssen Konzeption, Entwicklung und Gestaltung dieser Innovation Labs einer klaren Methodik und Didaktik folgen, um auf Verhaltensmuster von Menschen zu reagieren und kreative Potenziale zu fördern. Außerdem geht es darum, aus der täglichen Routine auszubrechen, andere Sichtweisen zu entwickeln und kreative und innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Infolgedessen geht es bei innovativen Raumkonzepten um deutlich mehr als nur um moderne Gestaltungs- oder Einrichtungskonzepte bzw. multisensorische Räume. Kreative Menschen, agile Teams und innovative Ideen brauchen (Frei-)Raum für einen Perspektivwechsel. Dieser gelingt nur mit einem ganzheitlichen Raumkonzept als visualisierter und gelebter Ausdruck einer innovationsfreundlichen Unternehmenskultur. Es geht es um das richtige Verhältnis und die Wechselwirkung zwischen Beschleunigen und Entschleunigen, Anspannung und Entspannung, kreativen Ideen und zielgerichteter Umsetzung – also ein differenziertes Raumkonzept je nach Funktionalität, Interaktion und Dynamik. Rolle und Funktion von Räumen werden zu häufig in der Konzeption vernachlässigt.
Es gibt verschiedene Arten von Innovation Labs. Diese können intern eingerichtet und durch eigene Mitarbeiter betrieben werden, vom Unternehmen vollständig losgelöst sein und durch externe Experten betrieben werden oder eine Mischung aus Beidem – die meist gewählte Variante. Wichtig ist, dass das Innovation Lab autark agieren kann und nicht in die üblichen Hierarchien, Prioritäten und Abläufe eingebunden oder durch Silo- bzw. Bereichsdenken ausgebremst wird. Grundsätzlich werden folgende Lab-Typen unterschieden:
- Grasroot Labs entsprechen häufig einem Werkstattcharakter. Diese Kategorie Labs werden oft privat (und weniger kommerziell) von einer oder mehreren Personen initiiert. Das Motiv ist oft der Spaß am Experimentieren und am kreativen Austausch mit anderen, wofür man nicht selten seine eigenen Räume zur Verfügung stellt.
- Co-Working Labs dagegen haben wirtschaftliche Ziele und ein konkretes Geschäftskonzept. Diese Kategorie Lab besteht in realen Räumen zum Arbeiten vor Ort. Flexible Nutzungsbedingungen und verschiedene Angebote und Formate sind auf heterogene und/oder wechselnde Nutzer ausgelegt.
- Corporate Labs werden von einem oder mehreren kooperierenden Unternehmen eingerichtet, um spezifische Aufgabenstellung zu lösen. Häufig geht es um die Etablierung oder Professionalisierung des eigenen Innovationsprozesses. In dieser Kategorie Lab werden häufig externe Experten und/oder Kunden und Zielgruppen mit eingebunden.
- Forschungs-Labs werden von Hochschulen oder anderen Forschungseinrichtungen betrieben. In dieser Kategorie Lab geht es in erster Linie darum, Forschungsergebnisse im frühen Stadium der Industrie vorzustellen und gemeinsam zu implementieren. Nicht selten werden aus diesen Projektergebnissen Ausgründungen initiiert und Startups gegründet.
Daneben gibt es noch →Inkubatoren, die Startkapital, Know-how, einen Marktzugang etc. anbieten und darüber hinaus einen →„Coworking Space“ zur Verfügung stellen, der aber in der Regel „inhouse“ ist und dessen Zugang im Unterschied zu den Co-Working Labs enger begrenzt ist.
Die Einrichtung von Innovation Labs hat sich in den letzten Jahren zu einem regelrechten Hype entwickelt. Große Konzerne und innovative Unternehmen sowieso aber auch immer mehr KMU´s gründen einen Innovation Lab, um als „modern“, „innovativ“ oder im War of Talents als „hipp“ zu gelten. Nicht selten wird darunter „nur“ die Einrichtung eines kreativen Raumes (miss-)verstanden, ohne dass ein ganzheitliches und nachhaltiges Konzept vorliegt. Es geht mehr um die Tatsache, ein Lab zu haben als sich mit der Frage auseinander zu setzen, wofür dieser eingerichtet wird, welche spezifischen Ziele damit verfolgt und wie diese konkret erreicht werden sollen. Diese „Ego-Labs“ werden mittlerweile als →Innovationstheater bezeichnet.
Innovation Roadmap
I wie Innovation Roadmap
Heutige Innovationsprozesse können mit einem herkömmlichen Projektmanagement mit einem starren Terminplan und feststehenden Aufgaben und Verantwortlichkeiten nicht mehr gesteuert werden. Von der ersten Ideenentwicklung über die Iteration bis hin zur erfolgreichen Implementierung einer Innovation müssen zahlreiche Hindernisse überwunden und nicht selten alternative Wege eingeschlagen werden. Die Operationalisierung des Innovationsprozesses ist durch unvorhergesehene Einflüsse und agile Arbeitsmethoden geprägt. Dies zu managen ist Aufgabe einer Innovation Roadmap. In dieser werden Zwischenziele klar definiert und der Weg dahin so agil wie notwendig gestaltet. Wie das Projektziel erreicht wird, liegt in der Verantwortung der Teams. Die Vorteile einer Innovation Roadmap für Unternehmen und dem Innovationsmanagement liegen klar auf der Hand. Der oft lange und unflexible sowie unüberschaubar erscheinende Prozess im herkömmlichen Projektmanagement wird in überschaubare und zu bewältigende kleine Teilprojekte heruntergebrochen. Dies hat den Vorteil, dass Innovationsteams schnell und gezielt reagieren können, wenn bestimmte Maßnahmen auf dem Weg zum nächsten Meilenstein nicht funktionieren oder sich als unpraktikabel erweisen. Gleiches gilt, wenn im Rahmen der Iteration neue Erkenntnisse gewonnen werden. Eine Innovation Roadmap ist das Spiegelbild einer agilen Kollaboration und Reifegrad einer innovativen Unternehmenskultur. Typische Elemente einer Innovation Roadmap folgen einem einfachen Prinzip: entwickeln (Konzept), ausprobieren (Prototyp), optimieren (MVP = Minimum Viable Product) und finalisieren (Implementierung).
Innovationscontrolling
I wie Innovationscontrolling
Das Innovationscontrolling wird häufig mit dem Controlling im Projektmanagement von Innovationsprojekten verwechselt obwohl dies deutlich darüber hinausgeht. Denn das Innovationscontrolling als Teil des Innovationsmanagements im Unternehmen wird über Kennzahlen abgebildet. Diese umfassen den Innovationsprozess selbst sowie die Innovationskultur und machen die Innovationsfähigkeit messbar. Das Innovationscontrolling dokumentiert Qualität und Quantität eingegangener Ideen und bewertet deren Reifegrad. Hierzu ist wichtig, dass objektive und reproduzierbare Kennziffern definiert werden, damit die Bewertung nicht nach subjektiven Einschätzungen erfolgt. Eine der Kernaufgaben im Innovationscontrolling ist der Abgleich, in wie weit die eingereichten Ideen zu den in der Innovationsstrategie erarbeiteten Suchfelder passen und/oder die Ziele der Unternehmensstrategie unterstützen. Außerdem misst das Innovationscontrolling die Aktivität und Dynamik der Mitarbeiter. So genannte Aktivitätskennzahlen geben einen Überblick, wie viele Mitarbeiter und wie häufig diese Ideen eingeben oder an eingereichten Ideen anderer Mitarbeiter mitarbeiten. Dies ergibt den Grad ihrer Aktivität. In einigen Unternehmen wird auch der so genannte Polarisierungsgrad gemessen, also welche Ideen eine besonders hohe Zustimmung oder Ablehnung erfahren. Beides können wichtige Kennziffern für ein zukünftiges Bewertungsverfahren sein und wertvolle Ressourcen sparen. Hierfür hat sich der Einsatz von spezieller Ideen- und Innovationsmanagement-Software bewährt. Das Monitoring umfasst die kontinuierliche Überwachung der aktuellen und zukünftigen Innovationsleistung eines Unternehmens. Mit ihm wird ein Indikator für die zukünftige Wettbewerbsfähigkeit im Leistungsportfolio von Unternehmen geschaffen.
Innovationsfalle
I wie Innovationsfalle
Der Begriff Innovationsfalle wird für verschiedene Situationen verwendet und beschreibt z. B. den Zustand, wenn Unternehmen entweder keine kreativen oder innovativen Ideen haben oder wenn die Umsetzung dieser zu erfolgreichen Innovationen zu lange braucht, ineffizient sind oder nicht den gewünschten Erfolg bringen. Der Begriff wird auch gewählt, wenn Unternehmen zu viele Ideen und Innovationsprojekte haben und diese nicht priorisieren oder während der Umsetzung den Fokus verlieren. Von einer Innovationsfalle spricht man auch, wenn interne Widerstände, Bereichsdenken und Neophobie immer wieder innovative Ideen ausbremsen oder Veränderungen unterbinden. Hierfür gibt es mehrere Ursachen:
- Innovationsfalle – das fehlende Innovationsverständnis: Unternehmen bezeichnen sich als kreativ, visionär und innovativ und schmücken sich gerne mit diesen Attributen, bleiben den Beweis dafür schuldig. Neue Produkte sind eher die Optimierung oder Weiterentwicklung der bestehenden Eigenschaften. Neu und anders wird gerne als innovativ verkauft. Infolgedessen entsteht die…
- Innovationsfalle – die fehlende Innovationskultur. Die Innovationskultur eines Unternehmens steht auf drei Säulen: der Innovationsfähigkeit (dem „Können“), der Innovationsbereitschaft (dem „Wollen“) und der Innovationsmöglichkeit (dem „Dürfen“), was Ursache ist für die…
- Innovationsfalle – das fehlende Innovationsmanagement. Essentielle Voraussetzungen für erfolgreiche Innovationen fehlen: es gibt keine Innovationsstrategie und nur einen überholten Innovationsprozess, das Wertesystem ist konservativ, die Führungskultur ist hierarchisch und vertikal ausgeprägt, Fehlerkultur bedeutet Schuldzuweisungen und Strukturen und Prozesse sind auf Innovationen als Querschnittsfunktion und agiles Projektmanagement nicht ausgelegt. Dies sind die Ursachen für die…
- Innovationsfalle – die fehlende Innovationskompetenz. Erfolgreiches Innovieren bedeutet nicht nur kreative und innovative Ideen zu entwickeln, sondern diese auch strukturiert und lösungsorientiert umzusetzen und erfolgreich zu vermarkten. Dies bedeutet, dass Innovationsteams sehr heterogen zusammen gesetzt sein und unterschiedliche Skills mitbringen müssen. Hierzu gehört neben den strategisch-konzeptionellen Fähigkeiten auch ein operativer Methodenkoffer. Verstärkt wird das Problem durch die…
- Innovationsfalle – Ignoranz und Selbstüberschätzung. Namhafte Weltkonzerne findet man auch deshalb heute in Geschichtsbüchern, weil das TOP-Management unternehmensbedrohende Entwicklungen unterschätzt hat oder sich nicht vorstellen konnte, dass diese Innovationen ihr eigenes Geschäftsmodell obsolet werden lassen. Das Top-Management dieser Unternehmen macht immer wieder den gleichen Fehler und beurteilt die Zukunft mit den Erfahrungen der Vergangenheit. Dies führt zwangsläufig zur…
- Innovationsfalle – das fehlende Commitment zu den Ressourcen. So lange das TOP-Management die notwendigen Ressourcen (Zeit, Budget, Personal, Freiräume) nicht zur Verfügung stellt und Innovationen nur halbherzig und nebenbei betrieben werden, wenn es das Tagesgeschäft zulässt, werden sich keine Erfolge einstellen. Innovationen müssen Querschnittsfunktionen im gesamten Unternehmen werden und genauso selbstverständlich sein wie Marketing, Vertrieb oder andere Funktionsbereiche. Nur so kann sie vermieden werden, die…
- Innovationsfalle – das Bewahren des Status Quo. Tradition ist die Innovation von gestern. In vielen Unternehmen hat sich eine Komfortzone etabliert, die hartnäckig alle Bemühungen auf Veränderungen unterbindet. Ob in den Führungsetagen, in denen die Bonifizierung an Wachstum und Effizienzsteigerungen gekoppelt wird oder bei Mitarbeitern, die im Alltag überlastet oder manchmal auch überfordert sind und den aktuellen Stand konservieren möchten. Dies führt zur letzten, der…
- Innovationsfalle – falsche Anreize und Priorisierung. In vielen Unternehmen werden Incentives an operative Erfolge geknüpft: mehr Umsatz, mehr Marge, mehr Marktanteil, mehr Neukunden etc. Dies fördert Quartalsdenken und Wachstum und somit den Erfolg von Unternehmen – aber eben keine nachhaltig angelegten Innovationen. So lange Wachstum und Erfolg durch Bestehendes erreicht werden kann, werden sich neue Dinge nicht durchsetzen.
Egal, welche dieser acht Ursachen verantwortlich sind für eine Innovationsfalle im Unternehmen: nur ein an die Unternehmensstrategie angelehntes Innovationsmanagement mit einer nachhaltigen Innovationskultur und einer ganzheitlichen Umsetzungskompetenz sowie einem agilen Projektmanagement werden kreative und innovative Ideen zu messbaren Ergebnissen und nachhaltigen Erfolg führen.
Innovationsförderung
I wie Innovationsförderung
Innovationen benötigen nicht nur visionären Weitblick, kreative Ideen sowie den spezifischen Methoden- und Werkzeugkoffer, sondern vor allem finanzielle Ressourcen. Neben Investitionen aus privatwirtschaftlichen Unternehmen gibt es auch öffentliche Förderprogramme, mit denen Digitalisierung und Innovation unterstützt werden. Unterschieden werden Förderungen auf europäischer Ebene sowie auf Bundes- und Landesebene. Des Weiteren gibt es Förderungen für Startups vor der Gründung, andere wiederum werden erst nach der Gründung vergeben. Grundsätzlich werden Zuschüsse oder zinsgünstige Kredite unterschieden. Bei den Zuschüssen, die nicht zurückgezahlt werden müssen, schwankt die Förderquote zwischen 30 bis 80%. Diese Zuschüsse sind auf einen Maximalbetrag gedeckelt, so dass immer ein Eigenanteil aufgebracht werden muss. Bei zinsgünstigen Krediten werden häufig zusätzlich Tilgungszuschüsse oder Haftungsfreistellungen gewährt.
Die meisten Förderprogramme richten sich an kleine und mittelständische Unternehmen (KMU) der gewerblichen Wirtschaft bis zu 250 Mitarbeitern, deren Größe in vielen Förderprogrammen die Grundlage für die Bemessung der Förderquote ist. Folgende Unternehmen sind in der Regel förderfähig:
- Kleinstunternehmen bis 10 Mitarbeiter mit einem Jahresumsatz von max. 2 Mio. EUR
- Kleine Unternehmen bis 50 Mitarbeiter mit einem Jahresumsatz von max. 10 Mio. EUR
- Mittelständische Unternehmen bis 250 Mitarbeiter mit einem Jahresumsatz von max. 50 Mio. EUR
Die Förderung hat zum Ziel, die digitale Wettbewerbsfähigkeit des deutschen Mittelstandes zu verbessern. Hierbei geht es nicht nur um die Entwicklung →digitaler Innovationen, sondern auch um die Implementierung von digitalen Plattformen, die Digitalisierung von bestehenden Prozessen bis hin zur Investition in die IT-Sicherheit. Die zuwendungsfähigen Ausgaben hängen stark vom jeweiligen Förderprogramm ab. Generell gilt, dass externe Berater und/oder IT-Spezialisten und/oder Entwickler fast immer gefördert werden. Bei einigen Förderprogrammen (z. B. go-digital) gibt es lediglich die Einschränkung, dass nur autorisierte Berater eingesetzt werden dürfen. Standard-Software oder auch Hardware wird sehr selten gefördert und Personalausgaben sind von der Förderung ausgeschlossen. An nicht rückzahlbare Zuschüsse sind deutlich mehr Bedingungen und Voraussetzungen geknüpft als an Kredite.
Aufgrund der ständigen Anpassung von Vergabevoraussetzungen, Laufzeiten, Art und Umfang von Zuschüssen oder Krediten kann die nachfolgende Übersicht über bundesweite Förderprogramme nur einen generischen Überblick geben.
- Digital Jetzt (Zuschuss bis 50.000 Euro, Förderquoten 30 bis 60%): Das Förderprogramm „Digital Jetzt“ des Bundesministeriums für Wirtschaft und Energie (BMWi) unterstützt KMU mit einem Zuschuss von bis zu 50.000 Euro. Die Fördersumme erhöht sich auf bis zu 100.000 Euro, wenn das Projekt mit mehreren Partnern in einem Netzwerk umgesetzt wird. Startups können die Förderung nur in Anspruch nehmen, wenn bereits ein signifikanter Geschäftsumsatz vorhanden ist. Die Förderung beinhaltet zwei Module. Das erste Modul fördert die Digitalisierung von Prozessen, die Entwicklung von digitalen Plattformen sowie die Entwicklung von digitalen Innovationen und beträgt 17.000 Euro. Das zweite Modul fördert die Qualifizierung von Mitarbeitern zu digitaler Kompetenz und beträgt 3.000 Euro. Die Förderquoten richten sich nach der Größe des Unternehmens: 40% bei bis zu 50 Mitarbeiter, 35% bei bis zu 250 Mitarbeiter und 30% bei Unternehmen mit bis max. 500 Mitarbeiter. Die Förderung kann um jeweils 5% durch zusätzliche Faktoren (z. B. Verbundprojekte, IT-Sicherheit, strukturschwache Regionen) erhöht werden.
- BAFA-Förderung (Zuschuss bis 4.000 Euro, Förderquoten 50 bis 90%): Im Rahmen des Programms “Förderung unternehmerischen Know-hows” werden Startups und Jungunternehmen mit 4.000 Euro, Bestandsunternehmen (> 2 Jahre) bis 250 Mitarbeiter mit 3.000 Euro sowie Unternehmen in Schwierigkeiten mit 3.000 Euro gefördert. Bei Startups und Jungunternehmen werden vor allem Beratungen in der Gründungs- und Aufbauphase zu wirtschaftlichen, finanziellen, personellen und organisatorischen Fragen der Unternehmensführung gefördert. An die Auswahl der Berater werden keine speziellen Anforderungen gestellt.
- Go digital (Zuschuss 16.500 Euro, Förderquote 50%): Im Förderprogramm „go digital” des BMWI erhalten KMU mit bis zu 100 Mitarbeitern und max. 20 Mio. Euro Umsatz einen Zuschuss über max. 16.500 Euro. Mit dem Programm werden Zuschüsse für Beratungsleistungen für die digitale Transformation in den Bereichen IT-Sicherheit, Digitale Geschäftsmodelle und -prozesse sowie Markterschließung gewährt. Dieser Zuschuss umfasst maximal 30 Beratertage zu einem Höchstsatz von 1.100 Euro und wird mit 50% gefördert. Die Beratung darf allerdings nur von einem autorisierten Berater vorgenommen. Außerdem sind zwei Beratertage zum Thema “IT Sicherheit” verpflichtend. Von der Förderung ausgeschlossen sind reine Investitionsmaßnahmen in Hard- und Standardsoftware.
- Go-Inno (Zuschuss 27.500 Euro, Förderquote 50%): Mit dem Förderprogramm „go Inno“ bezuschusst das BMWI die Innovationsberatung von KMU mit weniger als 100 Mitarbeitern und einem Umsatz weniger als 20 Mio. Euro. Die Rahmenbedingungen des Programms sind analog zu denen von „go digital“. Dies gilt auch für die Vorgabe, dass Dienstleistungen nur von autorisierten Beratern vorgenommen werden dürfen. Eine Kombination beider Programme ist nicht möglich. Gefördert werden Beratungsleistungen für Potenzialanalysen mit max. 10 Manntagen, für ein Realisierungskonzept mit max. 25 Manntagen und Projektmanagement mit max. 15 Manntagen. Für einen Beratertag sind bis zu 1.100 Euro zu 50% förderfähig.
- ERP-Digitalisierungs- und Innovationskredit (Kredit bis 25 Mio. Euro, Zins ab 0,04%): Der Digitalkredit der KfW richtet sich an Unternehmen mit bis zu 500 Mio. Euro Umsatz sowie Freiberufler mit mindestens 2 Jahre Tätigkeit am Markt. Er dient zur zinsgünstigen Finanzierung von digitalen Vorhaben, mit denen die digitale Transformation und/oder Innovationen eines Unternehmens gefördert werden.
- ERP-Mezzanine für Innovationen (Kredit 25.000 bis 5 Mio. Euro, Zins ab 0,33 %, Nachrangkapital, Laufzeit 10 Jahre): Im Gegensatz zum Digitalisierungs- und Innovationskredit fördert das Programm „ERP-Mezzanine für Innovationen“ marktnahe Forschung und Entwicklungen, die sich vom Stand der Technik in der EU abheben sowie Vorhaben, die für das beantragende Unternehmen neu sind. Gefördert werden Investitionen und Betriebsmittel. Dabei übernimmt die KfW bis zu 60% Risikoübernahme durch Nachrangkapital. Die Neuartigkeit des Vorhabens muss im Rahmen der Antragstellung von einem von der KfW zertifizierten Gutachter attestiert werden. Zielgruppe sind Unternehmen mit bis zu 500 Mio. Euro Umsatz sowie Freiberufler, die mindestens 2 Jahre am Markt sind.
Für einen Überblick der aktuellen Konditionen empfiehlt sich der Besuch der jeweiligen Webseiten.
Innovationsgrad
I wie Innovationsgrad
Der Innovationsgrad unterscheidet Innovationen in →inkrementelle Innovationen, →radikale Innovationen und →disruptive Innovationen. Der Innovationsgrad definiert, wie neu eine Innovation ist und wie groß ihr Impact für die Branche oder dem Markt sein kann. Er ermöglicht die Einstufung von Innovationen hinsichtlich ihres technischen Fortschritts und der Neuigkeit für den Markt. Der Innovationsgrad ist eine der wichtigsten Kenngrößen im →Innovationsmanagement und hat Auswirkungen auf die →Innovationsstrategie, die →Timing-Strategie sowie dem für die Umsetzung notwendigen Methodenkoffer.
Innovationskommunikation
I wie Innovationskommunikation
Die Innovationskommunikation ist ein Teilgebiet der Unternehmenskommunikation und beschreibt sämtliche Kommunikationsprozesse innerhalb des →Innovationsmanagements. Hierbei liegt der Fokus auf der Entwicklung neuer Produkte, Services und Dienstleistungen, Technologien, Verfahren und Prozesse sowie Vertriebskonzepten und Geschäftsmodellen. Der Schwerpunkt der Innovationskommunikation liegt darin, den Stand dieser Innovationsprojekte und -maßnahmen intern und extern zu vermitteln. In der internen Kommunikation geht es vor allem darum, Transparenz in der Organisation zu schaffen und alle Mitarbeiter aktiv mit einzubeziehen. Neben der Information hilft dies vor allem, mögliche Widerstände und Hindernisse zu überwinden bzw. abzubauen. Daher fokussiert sich die Innovationskommunikation nicht nur auf die Innovation selbst, sondern auch auf die dahinter stehende Organisation, auf Strukturen und Prozesse sowie Zuständigkeiten. Ein wichtiger Baustein ist die Kommunikation von Meilensteinen und Teilerfolgen. Hierbei ist wichtig, dass die Vermittlung von innovativen Neuerungen und/oder komplexen Prozessen durch einfache und verständliche Botschaften erfolgt. Durch die steigende Relevanz von Innovationen für Unternehmen nutzt die Innovationskommunikation zunehmend Elemente aus der Marketingkommunikation und setzt z. B. Storytelling oder visuelle Übersetzungen ein und etabliert hierfür kommunikative Plattformen, entweder über das klassische Intranet oder Game-basierte Plattformen.
Die Innovationskommunikation unterscheidet mehrere Ebenen: in der Mikroebene erfolgt die Erklärung und Interpretation von Innovationen zwischen einzelnen Personen, insbesondere von Fach- und Führungskräften sowie Mitarbeitern. In der Mesoebene finden die innovationsbezogenen Kommunikationsprozesse innerhalb einer Organisation statt und die Makroebene ist für die Kommunikation über Innovationen nach außen, also gegenüber Kunden, Geschäftspartnern sowie allgemein in der Öffentlichkeit. Letztere nutzt die Massenmedien und die komplementäre Funktion des →Innovationsjournalismus im Sinne einer 360-Grad-Berichterstattung über ökonomische, ökologische, technische und soziale Aspekte von Innovationen. Unter einer umfassenden 360-Grad-Perspektive versteht man die Einbindung der Innovationskommunikation in allen Phasen des Innovationsmanagements.
Die Abgrenzung der Innovationskommunikation zum Innovationsmanagement, zur Unternehmenskommunikation und zur Marketingkommunikation ist oft schwierig und übergreifend. Denn auch die Innovationskommunikation hat das Ziel, das Innovationen von den betroffenen Menschen wahrgenommen und verstanden wird. Vergleichbar mit der technischen Funktionalität sowie der ökonomischen Effizienz entscheiden auch kognitive Prozesse bei Mitarbeitern, Kunden und Geschäftspartnern über die Akzeptanz neuer Produkte und Dienstleistungen. Die Innovationskommunikation als Mittler der anderen Kommunikationsarten versucht daher in der Praxis, sowohl Ereignis-, Gefühls- und Nutzwerte zu vermitteln. Dies kann durch Personalisierung, Veranschaulichung oder Erlebbarkeit der Innovation erreicht werden.
Innovationskompetenz
I wie Innovationskompetenz
Innovationen sind nur in einer innovationsfreundlichen Unternehmenskultur möglich. Diese ist nicht nur Spiegelbild für das Selbstverständnis von Unternehmen, sondern schafft die Voraussetzungen für die notwendige Innovationskompetenz. Diese wird definiert über die Innovationsfähigkeit („Können“), Innovationsbereitschaft („Wollen“) und Innovationsmöglichkeit („Dürfen“). Alle drei Dimensionen stehen in direkter Beziehung. Innovationen sind dann erfolgreich, wenn die Rahmenbedingungen für das Können, Wollen und Dürfen geschaffen wurden und alle drei Dimensionen ausgewogen sind. Die Plattform für die drei Dimensionen stellt die →Innovationskommunikation dar. Diese vermittelt Ziele, Strategie sowie Maßnahmen zur Umsetzung, schafft Transparenz über Zuständigkeiten und Verantwortlichkeiten, informiert über Projekte und deren Erfolge, Ergebnisse oder den aktuellen Stand.
Innovationskultur
I wie Innovationskultur
Die Begriffe Unternehmenskultur, innovative Unternehmenskultur und Innovationskultur werden im Umfeld von Innovationen oftmals synonym verwendet, obwohl es feine Unterschiede gibt. Die Unternehmenskultur wird von den Beziehungen und dem Handeln der Mitarbeiter innerhalb eines Unternehmens geprägt sowie von dem Auftreten nach außen gegenüber Kunden, Geschäftspartnern und dgl. Sie ist nicht direkt sichtbar und zeigt sich durch Werte, Normen und Denkhaltungen, die ein Unternehmen mehrheitlich teilt. Hierbei kann es sich um ein niedergeschriebenes Leitbild genauso handeln wie die ungeschriebenen Gesetze im Flurfunk eines Unternehmens.
Die Innovationskultur dagegen beschreibt eine spezifische Ausprägung innerhalb der Unternehmenskultur, mit der die individuelle Kreativität von Mitarbeitern und vor allem die Entwicklung von Innovationen im Unternehmen gefördert werden soll. Da es sich bei Innovationsprozessen um eine Querschnittsfunktion im Unternehmen handeln sollte und in der Regel um bereichsübergreifende Prozesse, schafft die Innovationskultur die Leitplanken, Voraussetzungen und Rahmenbedingungen. „Ideen einen Raum geben“ ist hierbei nicht nur auf den physischen Raum z. B. in Form eines Innovation Lab zu beziehen, sondern auch auf die Risikobereitschaft, Delegation von Verantwortlichkeiten, das Aufbrechen von Hierarchien und starren Prozessen, eine entsprechende Plattform für die Kommunikation u.v.m. Essenziell ist, dass diese von sämtlichen Prozessbeteiligten geprägt und vom Management mit getragen werden. Eine innovative Unternehmenskultur ist nicht nur für eine hohe Innovationskraft und erfolgreiche Implementierung von Innovationen verantwortlich, sondern schafft auch Anreize und Identifikation für die Mitarbeiter mit positiven Auswirkungen auf das Employer Branding.
Die Innovationskultur eines Unternehmens wird von dem Dreiklang aus dem „Können“ (Innovationsfähigkeit), dem „Wollen“ (Innovationsbereitschaft) und dem „Dürfen“ (Innovationsmöglichkeit) geprägt. Diese sind nicht isoliert zu sehen, sondern beeinflussen sich gegenseitig. Erfolgreiche Unternehmen zeichnet aus, dass alle drei Dimensionen stark ausgeprägt sind und die Rahmenbedingungen für das Können, Wollen und Dürfen geschaffen wurden. Infolgedessen wird die Innovationskultur von wesentlichen Faktoren beeinflusst: der Strategie, dem Wertesystem, der Führungskultur, der Risiko- und Fehlerkultur, Strukturen und Prozessen, der Zusammensetzung von Teams sowie wesentlich von der internen Kommunikation.
Die Bedeutung der Innovationskultur wurde erst in den letzten Jahren verstärkt erkannt, da viele Unternehmen in der Vergangenheit ihren Erfolg an Umsätzen, Gewinnen und Prozessoptimierung festgemacht haben. Die Notwendigkeit zu mehr Innovation und die Transformation zu mehr Digitalisierung haben gezeigt, dass mit den bewährten Methoden der Vergangenheit die Herausforderungen der Gegenwart und Zukunft nicht mehr gemeistert werden können. Die Entwicklung von Serviceinnovationen, der Aufbau digitaler Geschäftsmodelle und/oder neue Arbeitsmethoden wie agiles Projektmanagement sind nur mit einem neuen Mindset möglich. Dieses wird durch eine Innovationskultur maßgeblich geprägt, wobei nicht nur Prozesse im Innovationsmanagement vorangetrieben, sondern Innovationen als Teil der Unternehmensphilosophie verankert werden. Die Einführung und Etablierung einer Innovationskultur geht in der Regel mit nachhaltigen Veränderungen (Transformationen und Change-Prozesse) einher.
Innovationskulturanalyse
I wie Innovationskulturanalyse
Eine Innovationskulturanalyse misst und bewertet die Erfolgsfaktoren für eine innovative Unternehmenskultur und ermittelt die →Innovationsfähigkeit von Organisationen. Darüber hinaus identifiziert sie die →Innovationsbarrieren und Widerstände, die erfolgreiche Innovationen verhindern und entwickelt einen Score über die →Innovationskraft der nächsten 3 bis 5 Jahre. Hierzu setzt sich die Analyse mit elf Indikatoren auseinander, die Einfluss auf die Innovationskultur haben. Diese umfassen die Unternehmens- und Innovationsstrategie, die Priorisierung und Rahmenbedingungen für ein gemeinsames Wertesystem, die Agilität für notwendige Prozesse und Strukturen, um unterschiedliche Innovationsformate und -grade entwickeln und steuern zu können, das Mindset der Fach- und Führungskräfte, um Kreativität und Innovationen zu fördern, die Diversifizierung der interdisziplinären Teams, den Reifegrad von Fach- und Führungskräften, die notwendigen Ressourcen und Freiräume der Mitarbeiter, der Stellenwert von Innovationen in der internen Unternehmenskommunikation, die Ausprägung einer Risikokultur für ergebnisoffene Innovationen, die Ausprägung einer Fehlerkultur als Voraussetzung für Erkenntnis und Wandel sowie das individuelle Arbeitsumfeld als Grundlage für kreative Ideen, dynamische Veränderungen, agile Arbeitsmethoden und erfolgreiche Innovationen.
Für die Durchführung einer Innovationskulturanalyse stehen qualitative und quantitative Methoden zur Verfügung. Ein bewährtes Modell hierfür ist u. a. der Innovationskulturkompass, der in Anlehnung an das →Befähigungsmodell oder an den →Reifegrad von Organisationen die spezifischen Fragen in vier Quadranten einteilt und mit einem Faktor bewertet, der einen visualisierten Score in einem Spider-Diagramm wiedergibt. Die vier Quadranten bestehen aus der Unternehmensperspektive (z. B. Strategie), der Markt- und Kundenperspektive (z. B. Marktumfeld), der Prozessperspektive (z. B. Entscheidungsprozess) und der Teamperspektive (z. B. Skills).
Das Ergebnis einer Innovationskulturanalyse identifiziert nicht nur Stärken und Schwächen einer Organisation, sondern zeigt konkrete Handlungsfelder und -optionen auf. Sie schafft eine objektive Bewertungsgrundlage und ersetzt bisherige Annahmen und Vermutungen durch empirische Daten und valide Informationen. Subjektive Wahrnehmungen wie Engagement, Loyalität und Identifikation sowie Vertrauen der Mitarbeiter werden messbar und skalierbar und somit für spätere Analysen vergleichbar.
Innovations-Matrix
I wie Innovations-Matrix
Die Innovations-Matrix stellt den →Innovationsgrad in das Verhältnis zum →Innovationstyp und visualisiert den Impakt sowie Aufwand und Risiko. Die vertikale Achse beschreibt inkrementelle, radikale und disruptive Innovationen. Auf der horizontalen Achse werden die Produkt-, Prozess-, Verfahrens-, Vertriebs-, Service- und Geschäftsmodellinnovationen eingetragen. Anschließend wird der Aufwand an Ressourcen sowie das Risiko eines möglichen Scheiterns analysiert und bewertet. Ergänzt werden diese Angaben durch die Auswirkungen der Innovation im Markt und/oder eigenen Unternehmen. Somit kann mit der Matrix eine Positionierung der Innovation vorgenommen werden. Wird diese Innovations-Matrix für alle Innovationsprojekte eingesetzt, erhält man einen Innovations-Score und somit eine Priorisierung.
Innovationsprozess
I wie Innovationsprozess
Der Innovationsprozess beschreibt, wie ein Unternehmen Innovationen entwickelt, seine Prozesse kontinuierlich verbessert und Innovationen erfolgreich umsetzt. Er ist als Teil des Innovationsmanagements nach ISO 56002 definiert und weist große Überschneidungen zum Qualitätsmanagement nach ISO 9001:2015 auf.
Der Ursprung geht auf die 1960er Jahre zurück, als der wegweisende Innovationsprozess Phased Project Planning entwickelt wurde, mit dem das Management von Entwicklungsprojekten eingeführt wurde. Die Aufteilung des Prozesses in verschiedene Phasen sollte sicherstellen, dass Fehler von einer Phase nicht in die nächste Phase übertragen werden. Robert G. Cooper entwickelte das noch heute bekannte Stage-Gate-Modell, das den Innovationsprozess in Arbeits- und Entwicklungsphasen (so genannte Stages) und Entscheidungspunkte (so genannte Gates) aufteilte.
Der Stage-Gate-Prozess hat vor allem Vorteile, wenn technologische Entwicklungen systematisch vorangetrieben werden sollen und/oder eine hohe Komplexität aufweisen. Durch Überschneidungen und oftmals fehlende Abgrenzung zum Prozess- und Projektmanagement, dem Risikomanagement und der Prozessoptimierung ist der klassische Stage-Gate-Prozess in den letzten Jahren zunehmend in die Kritik geraten. Dies auch, weil neue Innovationsformen wie zum Beispiel die Entwicklung digitaler Geschäftsmodelle (Business Model Innovation) oder digitalem Servicedesign nicht linear verlaufen und eine höhere Agilität erfordern. Während sich der Stage-Gate-Prozess auch heute noch für die Professionalisierung von inkrementellen Innovationen eignet, ist dieser für digitale und/oder disruptive Innovationen zu unflexibel und daher ungeeignet. Wiederum Robert G. Cooper war es, der 2014 Anforderungen an ein Next Generation Idea-to-Launch System definierte und es „Adaptive and Flexible“ und „Accelerated“ nannte.
Ein erfolgreicher Innovationsprozess sollte
- rechtzeitig Marktchancen identifizieren,
- Kreativität fördern und Inspiration für neue Ideen für Produkte, Services und Geschäftsmodelle liefern,
- ein innovationsförderndes Mindset und das Teamwork unterstützen,
- ein Rapid Prototyping vorsehen,
- die erfolgreiche Implementierung und Vermarktung ermöglichen und
- eine nachhaltige Innovationskultur aufbauen und etablieren.
Innovationsstufe
I wie Innovationsstufe
→Innovationsgrad
Innovationstheater
I wie Innovationstheater
Der Begriff Innovationstheater wurde von Jean-Philippe Hagmann, einem Experten für radikale Innovationen und Autor des gleichnamigen Buches, geprägt. Er beschreibt damit Maßnahmen von Unternehmen, die nur den Anschein erwecken, innovative Ideen zu entwickeln und zu fördern. Bei einem Blick hinter die (Innovations-)Kulissen wird deutlich, dass diese Unternehmen Innovationen nur als ein Projekt missverstehen und nicht als strategische Unternehmensausrichtung. In diesen Unternehmen sind einzelne Abteilungen oder ein Innovationsmanager für Innovationen zuständig, statt Innovationen als Querschnittsfunktion über alle Hierarchien und über die gesamte Organisation zu etablieren. Nicht selten werden Mitarbeiter in eintägige Methodenschulungen gesteckt und dann erwartet, dass Unternehmen zwangsläufig innovativ werden. Ganz häufig fehlt es an einer klaren Zielsetzung, dem Commitment im Top-Management sowie einer Innovationsstrategie. Der Höhepunkt ist die Einrichtung eines Innovation Lab mit bunten Wänden und/oder Möbeln ohne jegliches Konzept und getreu dem Motto „Hauptsache anders“. Freiräume für kreative Ideen und innovative Konzepte verstehen derartige Unternehmen als Teil des Tagesgeschäfts im üblichen Arbeitsumfeld. Und das Marketing organisiert Ideenkampagnen und feiert jede noch so kleine Veränderung als „radikale Verbesserung“.
Dabei erfordern erfolgreiche Innovationen ein Umdenken in vier Bereichen:
- Organisationsform
- Rollen und Zuständigkeiten
- Prozesse und
- Unternehmenskultur.
Gescheiterte Innovationen sind immer auf vier Ursachen zurück zu führen:
- ein falsches Innovations- und Prozessverständnis,
- fehlende Freiräume für die Mitarbeiter,
- ein falsches Mindset und Vorbildfunktion der Führungskräfte sowie
- eine innovationsfeindliche Unternehmenskultur.
Erfolgreiche Unternehmen haben in ihrem Innovationsmanagement unterschiedliche Rollen und Zuständigkeiten etabliert:
- Sponsor/Mentor im Top-Management
- kreativer Coach
- branchenfremde Querdenker
- pro-aktive Experten
- gut vernetzte Mitarbeiter.
Innovationstiming
I wie Innovationstiming
Innovationstiming ist ein Synonym für den →zeitorientierten Ansatz der Innovationsstrategie und befasst sich mit dem optimalen Zeitpunkt für den Markteintritt. Unternehmen können selbst entscheiden, ob sie Vorreiter, Pionier und First Mover in ihrer Branche sein wollen oder Nachahmer, Follower und →Late Mover. Bei der Pionier-Strategie verfolgt ein Unternehmen den Ansatz, mit seiner Innovation, seinem Produkt oder seiner Dienstleistung als erstes in einem Zielmarkt einzutreten (First to Market). Der →First Mover Advantage besteht in einer Monopolstellung für einen gewissen Zeitraum, was Marktanteile, Umsätze und Rendite sowie Neukunden und Wettbewerbsvorteile bringt, aber auch Imagegewinn und der frühzeitige Erwerb von Markt-Know-how. Weiterhin besteht die Möglichkeit, Branchenstandards zu definieren und hohe Markteintrittsbarrieren für Wettbewerber aufzubauen. Ideal wäre, diesen Vorsprung durch gewerbliche Schutzrechte abzusichern. Nachteile der Pionierstrategie können sich aus einer evtl. noch unsicheren Marktentwicklung und hohen Markterschließungskosten ergeben. Aus diesem Grund entscheiden sich viele Unternehmen dafür, etwas später in den Markt einzutreten, um das Marktrisiko klein zu halten (Second to Market). Mit ihrer so genannten Late-Mover-Strategie zielen diese Unternehmen darauf ab, vom neu geschaffenen Marktsegment erst dann zu profitieren, wenn Risiken ausgeschlossen werden können, technische und wirtschaftliche Hürden genommen wurden und die Zahl der Anbieter und potenziellen Kunden angewachsen ist. Verfolger werden noch unterschieden, ob sie den Pionier imitieren/kopieren oder modifizieren/weiter entwickeln. Andere Late Mover setzen auf die Entwicklung und Abdeckung noch nicht besetzter Produktnischen („Nischenstrategie“). Nachteile der Verfolgerstrategie bestehen evtl. in hohen Markteintrittsbarrieren, gewerblichen Schutzrechten und einer Vergleichbarkeit, so dass Vorteile in der Regel über einen günstigeren Preis oder über Services „erkauft“ werden müssen.
Das Innovationstiming drückt somit das Selbstverständnis eines Unternehmens in Bezug auf Innovationen aus und definiert, welche Bedeutung Innovationen für die strategische Ausrichtung und den Unternehmenserfolg haben. Es gibt in der Regel keine allgemein gültige „beste Timing-Strategie“, da jedes Unternehmen auf Grundlage seiner Ressourcen und Marktstellung seine „optimale Timing-Strategie“ festlegen muss. Für die Festlegung des optimalen Innovationstimings greift man auf drei strategische Grundkonzepte zurück:
- Lebenszykluskonzept, aus dem sich Strategien in Bezug auf die Erschließung neuer Märkte, Zielgruppen und Kundensegmente ableiten lassen sowie der Gewinnung von Marktanteilen
- Erfahrungskurvenkonzept, aus dem sich Strategien erschließen lassen in Bezug auf Schnelligkeit bei der Leistungserfüllung, Standardisierung oder Preisführerschaft
- komplexe Einflussfaktoren, die individuell die Wahl der Strategie bestimmen und je nach Bedingungen, Möglichkeiten und Veränderungen situativ angepasst werden müssen, um die Wettbewerbsfähigkeit und den Unternehmenserfolg zu sichern.
Innovationsstrategie
I wie Innovationsstrategie
Die Innovationsstrategie ist Teil der übergeordneten Unternehmensstrategie und definiert die für das Unternehmen relevanten →Innovationsfelder. Außerdem bestimmt sie die strategische Ausrichtung der Innovationsprojekte und priorisiert Schwerpunkte und Ressourcen. Die Innovationsstrategie fokussiert sich auf zukunftsorientierte Innovationspotenziale wie z. B. →Produktinnovationen, →Prozessinnovationen, →Verfahrensinnovationen, →Vertriebsinnovationen, →Serviceinnovationen oder →Geschäftsmodellinnovationen. Die Innovationsstrategie ist Kompass und Handbuch für alle Innovationsprozesse sowie ein Werkzeug für deren Steuerung (planen, durchführen, umsetzen, messen, optimieren). Außerdem kann die Innovationsstrategie Grundlage für andere Teilstrategien im Unternehmen sein wie z. B. der Digitalisierungsstrategie, Sortimentsstrategie oder Marketingstrategie. Innovationsstrategien sollten konkret, messbar, lösungs- und umsetzungsorientiert, widerspruchsfrei, anschaulich und verständlich sein. Eine optimale Innovationsstrategie muss in Abhängigkeit zum Zielmarkt auf das jeweilige Marktsegment und Geschäftsmodell ausgerichtet sein. Man unterscheidet zwischen dem
- →technologieorientierten Ansatz (Ressourcen),
- →kundenorientierten Ansatz (Bedürfnisse),
- →marktorientierten Ansatz (Wettbewerb),
- →zeitorientierten Ansatz (Zeitfaktor des Markteintritts) und
- →kooperationsorientierten Ansatz (Allianzen).
Die Innovationsstrategie definiert darüber hinaus den Grad der Innovation. Man unterscheidet zwischen →inkrementellen Innovationen, →radikalen Innovationen und →disruptiven Innovationen. Diese sind vom →Technologietyp abhängig. Allein diese kurze Auflistung zeigt, dass eine Innovationsstrategie immer auf das jeweilige Unternehmen zugeschnitten und unternehmensübergreifend abgestimmt sein muss. Das Kopieren einer fremden Innovationsstrategie führt selten zum Erfolg. Schon allein deshalb, da die Innovationsstrategie maßgeblich die Innovationskultur eines Unternehmens bestimmt.
Innovationstyp
I wie Innovationstyp
Innovationen kann es in vielen Bereichen der Wirtschaft und in der Gesellschaft geben, so dass der Innovationstyp beschreibt, um welche Art von Innovation es sich handelt. Unterschieden werden →Produktinnovationen, →Verfahrensinnovationen, →Prozessinnovationen, →Vertriebsinnovationen, →Serviceinnovationen sowie →Geschäftsmodellinnovationen. Darüber hinaus gibt es auch →Sozialinnovationen und →Umweltinnovationen. Prozessinnovationen werden selten noch in →Organisationsinnovationen und →Managementinnovationen differenziert. Hierbei können Innovationstypen auch ineinandergreifen, so dass eine klare Zuordnung verschwimmt. Gelegentlich werden auch marktmäßige, kulturelle und strukturelle Innovationen differenziert. Die Unterscheidung in inkrementelle, radikale oder disruptive Innovationen erfolgt dagegen über den Innovationsgrad.
innovative Milieus
I wie innovative Milieus
Bei innovativen Milieus (auch als kreative Milieus bezeichnet) handelt es sich in der Markt- und Innovationsforschung um einen Denkansatz, mit dem die Bedeutung regionaler Netzwerke für die Generierung von Wissen und Entwicklung von Innovationen untersucht werden. In zahlreichen Studien wurde festgestellt, dass die wichtigste Voraussetzung für den wirtschaftlichen Erfolg einer Region die persönlichen Beziehungen verschiedener Akteure aus Politik, Wissenschaft und Wirtschaft ist. Diese dienen dem Austausch von kreativen Ideen, der Schaffung und Etablierung gemeinsamer Werte, Ziele und Strategien für eine Wirtschaftsregion und letztendlich die erfolgreiche Implementierung von Innovationen.
Innovative Milieus konstituieren sich aus
- dem lokalisiertes Produktionssystem (regionale Anhäufung von Unternehmen, Zulieferern, Kunden und Dienstleistern). Diese Akteure sind miteinander verbunden durch Güter-, Arbeitsmarkt-, Technologie- und Informationsverflechtungen. Man spricht auch von der lokalisierten Form einer unternehmensübergreifenden Wertschöpfungskette.
- Sozio-institutionelle Einbettung in formelle und informelle Institutionen wie Ausbildungszentren und Forschungseinrichtungen, aber auch eine gemeinsame lokal vorhandene Kultur und Mentalität.
- Innovations- und Lernprozesse sowie lokalisierte (formelle und informelle Kommunikations- und Informationsflüsse innerhalb der entsprechenden Region. Daraus ergeben sich regionale Wettbewerbsvorteile gegenüber anderen Regionen.
Unternehmen lassen sich anhand ihres Innovationserfolgs und ihres Innovationsprofils in sieben innovative Milieus unterscheiden. In einem Diagramm misst die y-Achse den Innovationserfolg von gering bis hoch und die x-Achse erfasst das grundlegende Innovationsprofil. Zu den sieben innovativen Milieus zählen:
→ Technologieführer
→ disruptive Innovatoren
→ konservative Innovatoren
→ kooperativen Innovatoren
→ zufälligen Innovatoren
→ passiven Umsetzer
→ Unternehmen ohne Fokus auf Innovationen
intelligente Verpackungen
I wie intelligente Verpackungen
Digitale Verpackung oder Smart Packaging sind sehr unspezifische Begriffe und stehen für unterschiedliche Anwendungen:
- Unter extended Packaging werden Verpackungen beschrieben, die durch Design, Material oder Form besonders effizient oder nachhaltig sind. Hierzu gehören z. B. Bio- oder Recycling-Verpackungen, Ein-Hand-Verpackungen oder spezielle Oberflächen-Sensorik auf der Verpackung, mit der die Materialität des Inhalts über die Verpackung nachempfunden wird. Weitere Beispiele sind Unboxing-Experience oder auch „Wackaging“ als Synonym für „bekloppte / freche“ Verpackungen, auch wenn diese aktuell nur im B2C-Bereich anzutreffen sind. Die Verpackung als Eyecatcher und Trigger für Verkaufsentscheidungen ist sicherlich im übersättigten B2C-Markt eine vorübergehende Trendentwicklung, die nicht einfach auf den B2B-Bereich und schon gar nicht auf den Baubereich übertragen werden kann. Hier gelten andere Gesetzmäßigkeiten und Mechanismen; außerdem findet das Markenversprechen auf der Leistungsebene statt. Dennoch zeigt die Entwicklung, dass eine Verpackung eben nicht nur transportiert wird, im Regal liegt und nach deren Benutzung entsorgt wird. Verpackung hat sich im B2C-Bereich längst zum stillen Verkäufer entwickelt.
- Reaktive Verpackungen treten zu einem bestimmten Zeitpunkt in Wechselwirkung mit dem Inhalt und deren Eigenschaften und können diese aktivieren und verändern.
- Aktive Verpackungen dienen in erster Linie dazu, mehr Informationen anzuzeigen, als auf der Verpackung möglich sind. Im B2C-Bereich sind dies in erster Linie Verbraucherinformationen über Inhaltsstoffe, Allergene und dgl. und ersetzen den Beipackzettel. Diese kommen vor allem bei Lebensmitteln und Kosmetik zum Einsatz. Entwicklungen wie Augmented oder Virtual Reality werden eingesetzt, um über die Verpackung Werbetrailer auszustrahlen, um sich teure TV-Spots zu sparen.
- Darüber hinaus gibt es intelligente Verpackungen, die mit dem Anwender über dynamische Eigenschaften oder Veränderungen im Zustand des Inhalts „kommunizieren“. Dies können Veränderungen z. B. über Temperatur und Feuchtigkeit sein, aber auch welche, die durch Mikroorganismen oder Gasentwicklung verursacht werden. Über spezielle Sensoren können darüber hinaus Erschütterungen oder Öffnungen registriert werden, die ggf. auf Lagerdauer und Frische usw. Auswirkungen haben können. Bei der intelligenten Medikamentenverpackung z. B. wird die Einnahme der Medikamente überwacht. Bei fälschlicher Dosierung oder dem Vergessen der Einnahme löst die Verpackung einen akustischen oder optischen Alarm aus.
Möglich machen diese Anwendungen so genannte Smart Labels, also elektronische Etiketten. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet.
Intenterkennung
I wie Intenterkennung
Damit ein digitaler Sprachassistent oder ein Chatbot funktionieren, müssen diese Systeme die Absicht des Nutzers (englisch Intent) erkennen können. Hierzu brauchen sie einen Impuls, der durch die Eingabe oder Auswahl ausgelöst wird. Kann der Sprachassistent oder der Chatbot in einer Nutzeräußerung (Utterance) einen Intent ausreichend sicher erkennen (ermittelt über einen dahinterliegenden Score-Wert) führt er die im Intent festgelegte Reaktion aus. Dies ist in der Regel eine Antwort, kann aber auch die Anzeige eines Bildes oder Videos sein. In der Regel ist ein Intent mit einer Antwort verbunden, die als Bestätigung dient und/oder den nächsten Schritt auslöst. Da Menschen sich zu ein und derselben Sache unterschiedlich äußern (Umschreibung, Mundart, Synonyme usw.) basiert ein Intent nicht nur auf genau einer Utterance (Äußerung), sondern auf Kombinationen und Ähnlichkeiten. Sprache basiert allerdings auf Struktur und Regeln (Grammatik) und nicht auf thematische Ähnlichkeit. Diese Abweichungen versucht das System über eine KI zu erkennen und zu erlernen. Denn die Ausdrucksvielfalt der natürlichen Sprache resultiert nicht einfach nur daraus, dass man eine gigantisch große Menge von Textähnlichkeiten memoriert, sondern durch die regelgeleitete Kombination und Interpretation von Worten.
Internet der fliegenden Dinge
I wie Internet der fliegenden Dinge
→Drohnenökonomie
Internet of Everything (IoE)
I wie Internet of Everything (IoE)
Der Begriff →Internet of Things (IoT) steht für die Verbindung von physischen Dingen (Objekte, Maschinen, Geräte usw.), auf die über das Internet zugegriffen wird. Das Internet of Everything (IoE) ist eine weitere Stufe in der Evolution des Internet of Things (IoT). Es umfasst neben der Vernetzung zwischen Maschinen (Machine-to-Machine) mittels Sensordaten auch die Kommunikation zwischen Computer und Mensch (Machine-to-People) und die technologieunterstützte Interaktion zwischen Menschen (People-to-People). Der Mensch wird mit Daten, Gegenständen und Maschinen in einen sinnvollen Zusammenhang gebracht und in einem komplexen System erfasst. Zusätzlich werden Prozesse mit eingebunden. Grundlage für dieses gigantische Potenzial ist die →Künstliche Intelligenz und insbesondere das →Machine Learning. Intelligente Maschinen greifen auf einen immensen Datenbestand zu und schaffen die Voraussetzungen, um alle Bereiche der Wirtschaft sowie des alltäglichen Lebens zu automatisieren. Selbst komplexe Prozesse, die auf den Input und Import aus verschiedensten Datenquellen angewiesen sind, können mit dem Internet of Everything technisch abgebildet und automatisiert werden – und dies in Echtzeit und an jedem Ort. Dies war der Grund, warum der bisherige Begriff Internet of Things eben nicht mehr ausreichte und folgerichtig das Internet of Everything geboren wurde.
Internet of Experiences (IoX)
I wie Internet of Experiences (IoX)
Der Begriff →Internet of Things (IoT) steht für die Verbindung von physischen Dingen (Objekte, Maschinen, Geräte usw.), auf die über das Internet zugegriffen wird. Das Internet of Experiences (IoX) ist eine weitere Stufe in der Evolution des Internet of Things (IoT) und nutzt dieses, um sich selbst weiter zu entwickeln. Daher konzentriert sich das IoX auf die Verbindungen zwischen den Objekten, Maschinen und Geräten und analysiert die potenziellen Möglichkeiten. Das Internet of Experiences ist weniger eine technologische Weiterentwicklung des Internet, sondern impliziert einen konsequent kundenzentrierten Ansatz für Smart City, Smart Home, Smart Factory oder Smart Work usw. Der Fokus des IoX liegt nicht nur darin, innovative Services zu entwickeln, um die Lebensqualität in allen Bereichen zu verbessern, sondern die Voraussetzungen für ein Höchstmaß an Personalisierung zu schaffen.
Internet of Things (IoT)
I wie Internet of Things (IoT)
Mit dem Begriff Internet of Things (IoT) werden Technologien einer globalen Vernetzung beschrieben, mit der physische und virtuelle Dinge (Objekte, Maschinen, Geräte usw.) miteinander verbunden sind und durch Informations- und Kommunikationstechniken miteinander kommunizieren und zusammenarbeiten. Die implementierten Funktionen dieser Technologien erlauben nicht nur die Interaktion zwischen Menschen und Maschinen in vernetzten elektronischen Systemen, sondern auch zwischen den Systemen selbst. Das Internet of Things gilt als eine der Schlüsseltechnologien im 21. Jahrhundert. Die Vision eines Internets der Dinge wurde bereits Anfang der 1990-er Jahre von Mark Weiser beschrieben, als er in seinem Aufsatz „The Computer for the 21st Century“ erstmals den Begriff „Ubiquitous Computing“ erwähnte und einen Bezug herstellte, Objekte mit Sensoren auszustatten, die nahtlos und allgegenwärtig sind. Der Begriff „Internet of Things“ geht auf Kevin Ashton zurück, der ihn 1999 erstmals verwendete. Durchgesetzt hat sich der Begriff allerdings erst durch die Aktivitäten der „Auto-ID Labs“. Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann diese Technologie nur als ein Vorreiter gesehen werden, da eine Möglichkeit für die direkte Kommunikation über Internetprotokolle fehlt. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.
Experten rechnen damit, dass die Zahl der vernetzten IoT-Geräte in den nächsten Jahren auf 20 bis 25 Milliarden ansteigen wird. Damit die „Dinge“ in einer hypervernetzten Welt miteinander kommunizieren können, brauchen sie eine eindeutige Identität, die →Identity of Things (IDoT). Synonym werden für das IoT auch Begriffe wie →Ubiquitous Computing, →Pervasive Computing, →Industrie 4.0, →Cognitive Computing oder →cyber-physische Systeme verwendet.
Invention
I wie Invention
Invention bezeichnet die Idee oder Erfindung vor einer Innovation. Diese ist in der Öffentlichkeit unbekannt und in der Regel noch nicht marktfähig. Eine Invention kann die Quelle und Auslöser für eine Innovation werden, muss es aber nicht. Sie markiert lediglich den Anfang der Ideenphase bzw. den Start im „Innovationstrichter“ (engl. Innovation Funnel).
Ishikawa-Methode
I wie Ishikawa-Methode
Um die Beziehung zwischen Ursache und Wirkung zu analysieren und die Konsequenzen grafisch darzustellen gibt es eine Reihe von Methoden wie z. B. die Ursache-Wirkungs-Tabelle (engl. Cause and Effect Matrix) oder die Fehlerbaumanalyse (engl. Fault Tree Analysis). Hierbei werden alle Problemursachen identifiziert und ihre Abhängigkeiten visualisiert. Die bekannteste Form wurde in den 1940-er Jahren durch den japanischen Wissenschaftler Kaoru Ishikawa entwickelt, der als Pionier der japanischen Qualitätskontrolle gilt. Seine Ursache-Wirkungs-Analyse, auch als 8W-Methode oder Fischgräten-Diagramm bekannt, wurde später nach ihm benannt. Das Ishikawa-Diagramm ähnelt einem Fisch mit seinen Gräten und visualisiert den Zusammenhang zwischen Ursachen und einer darauf beruhenden positiven oder negativen Wirkung bzw. eines dadurch maßgeblich beeinflussten Ergebnisses. Ziel ist, alle Ursachen eines Sachverhalts zu identifizieren und die untereinander vorhandenen Abhängigkeiten darzustellen. Bei der Analyse komplexer Problemstellungen kann das Diagramm den Klärungsprozess vereinfachen und so zur Entscheidungsfindung beitragen.
Das Ishikawa-Diagramm besteht aus dem Kopf (hier wird das zu analysierende Problem benannt) und den Hauptzweigen (Fischgräten). Der Zusammenhang zwischen Ursachen und Wirkung wird im Diagramm mit horizontalen und diagonalen Pfeilen dargestellt, die . Die Ursachen werden vier Kategorien zugeordnet:
- Material (z. B. Werkstücke, Rohstoffe, Zulieferteile),
- Maschine (z. B. Arbeitsmittel. Arbeitsplätze),
- Methode (z. B. Organisationsstrukturen, Arbeitsabläufe und -prozesse),
- Mensch (z. B. Erfahrungen, Expertise, Kompetenzen).
Dieses Schema wurde in den letzten Jahren individuell um die Milieus (z. B. Umfeld, exogene Faktoren, Wettbewerb, Kunden) zu 5M erweitert sowie um das Management (z. B. Vision, Mission, Unternehmenswerte, operative und strategische Entscheidungen) zu 6M und um Measurement (z. B. Output, Leistung, Ergebnis) und Money (Finanzen) zu 8M.
Anhand der Expertise und Erfahrungen wird analysiert, ob die richtige Ursache(n) für das Problem ermittelt wurde(n). Statistisch kann die Annahme, dass die identifizierte Ursache eine Hauptursache ist, mit einem Signifikanztest (Hypothesentest) gestützt werden.
ISO 56002
I wie ISO 56002
ISO 56002 ist der erste internationale Standard für das Innovationsmanagementsystem. Es unterstützt Unternehmen dabei, eine Innovationsvision zu entwickeln und diese in eine konkrete Innovationsstrategie zu überführen, in der Ziele, Kennziffern und Maßnahmen benannt werden sowie Prozesse zu etablieren, um diese zu erreichen. ISO 56002 ist vergleichbar mit anderen Managementsystemen wie ISO 9001:2015 (Qualitätsmanagement) und standardisiert das Innovationsmanagement, in dem Innovationsprozesse professionalisiert und effizient sowie effektiv gestaltet werden. Infolgedessen soll die Innovationsfähigkeit eines Unternehmens gesteigert werden. Hierzu soll die Fähigkeit gestärkt werden, verändernde Marktbedingungen rechtzeitig zu erkennen, zu verstehen und darauf zu reagieren, neue Gelegenheiten zu verfolgen, das Wissen und die Kreativität von Menschen innerhalb der Organisation zu nutzen sowie mit Externen in Form von Kollaboration neue Ideen, Konzepte und Strategien zu entwickeln.
J wie Jobs-to-be-done-Methode
J wie Jobs-to-be-done-Methode
Die Jobs-to-be-done-Methode ist eine der wichtigsten kundenzentrierten Werkzeuge in den modernen Innovationsmethoden. Die dazugehörigen Frameworks wurden von dem amerikanischen Innovationsberater Anthony W. Ulwick und dem Harvard Professor Clayton M. Christensen entwickelt. Sie gelten als die Pioniere dieser Methode. Während Ulwick in den 1990er Jahren die “Outcome Driven Innovation (ODI)” Methode entwickelte, prägte Clayton Christensen im gleichen Zeitraum den Begriff der disruptiven Innovation. Er stellte die Theorie auf, dass auch etablierte oder marktführende Unternehmen durch Innovationen Dritter aus ihrem Markt gedrängt werden. Allerdings konnte er noch keinen Nachweis für seine Theorie liefern, bis Ulwick ihm mit der OID-Methode eine plausible Antwort gab. Nach einem Zusammentreffen der Beiden 1999 wurde die “Jobs Theory” geboren.
Während Jobs-to-be-done von Christensen das zugrundeliegende Framework liefert, stellt die OID-Methode von Ulwick den konkreten Prozess zur Umsetzung der Jobs Theory zur Verfügung. Die Philosophie von Jobs-to-be-done ist relativ simpel. Beide erkannten unabhängig voneinander, dass Kunden ein Produkt oder Leistung in der Regel nur kaufen, um ein Problem zu lösen – also eine Aufgabe (einen Job) zu erledigen oder um ein Bedürfnis zu befriedigen. Im Kern von Jobs-to-be-done geht es um die einfache Frage, warum ein Kunde ein Produkt oder Leistung kauft oder es bleiben lässt und welche Aufgabe damit verbunden wird. Besonders deutlich wird dies in einem Zitat von Christensen: „Customers don’t buy products. They hire them to do a job.” Der Job ist hierbei gekennzeichnet durch ein Problem oder ein Bedürfnis des Kunden. Die Qualität und den Mehrwert beurteilt der Kunde danach, wie hilfreich ein Produkt oder Leistung für die Erfüllung dieser Aufgabe und die Erledigung seines “Jobs” ist. Die Bedürfnisse der Kunden sind hierbei nicht nur funktionaler, sondern auch emotionaler oder sozialer Natur. Um diese herauszuarbeiten hat sich z. B. die 5-Why-Methode bewährt. Diese Methode unterstellt, dass die eine Ursache spätestens nach fünf aufeinanderfolgenden “Warum”-Fragen offensichtlich wird.
In den meisten Produktpräsentationen, Marketingkampagnen und/oder Verkaufsgesprächen liegt der Fokus auf der “funktionalen Vorteilskommunikation”. Diese soll dem Kunden aufzeigen, welche Funktionen das eigene Produkt im Vergleich zu seinen Wettbewerbern aufweist. Der funktionale Nutzen zahlt auf das direkte Ziel des Kunden ein. Dagegen verstecken sich emotionale und soziale Ziele oft in indirekten Zielen, entziehen sich also einer offenliegenden Betrachtung. Das Herausfinden dieser indirekten Ziele bzw. der sozialen und emotionalen Aspekte ist genau die Perspektive, die die Jobs-to-be-done Methode liefert. Es handelt sich um ein mächtiges Framework, da es zudem eine konsequente Kundenorientierung und -zentrierung unterstützt und eine hohe Kundenempathie aufbaut.
J wie Jugaad-Innovationen
Das Wort „Jugaad“ ist Hindi und kann nicht direkt übersetzt werden. Es beschreibt eine improvisierte und/oder provisorische Lösung und kann umgangssprachlich am ehesten mit Cleverness, Einfallsreichtum oder Genialität umschrieben werden. Der Begriff umschreibt die Fähigkeit von Menschen vor allem in den Schwellenländern, Lösungen auch unter schwierigen Bedingungen und widrigsten Bedingungen mit einfachen Mitteln zu finden. Jugaad ist eine eigene Philosophie zu Denken und zu handeln und wird bestimmt dadurch, wie man auf Herausforderungen reagiert. Es ist allerdings mehr als „nur“ ein „Innovationsmodell des armen Mannes“, wie Jugaad häufig auch bezeichnet wird. Immer mehr westliche Unternehmen entdecken das Prinzip für sich und wenden Jugaad-Innovationen in Bereichen an, in denen Neuentwicklungen weniger durch Technologie getrieben werden und neue Produkte im unteren Preissegment angesiedelt sind. Es geht nicht um eine Kehrtwende von 180 Grad, sondern um Synergien zu nutzen. Die Stärken westlicher Unternehmen (Wirtschaftlichkeit durch Größe, Einsatz von hohem Kapital, Vorhandensein von Know-how, Standardisierung und Automatisierung) werden mit den Vorteilen des Jugaad-Ansatzes ergänzt, der sich auf Werteorientiertheit, Flexibilität und Leidenschaft fokussiert. Typische Attribute für Jugaad-Innovationen sind Erschwinglichkeit, Qualität und Nachhaltigkeit und somit alles Eigenschaften, die von Kunden zunehmend geschätzt und nachgefragt werden. Jugaad-Innovationen basieren auf sechs Prinzipien:
- Seek Opportunity in Adversity: jedes Unglück bietet auch Möglichkeiten, jedes Problem auch Chancen, jede Einschränkung auch Potenziale.
- Do more with less: Erreiche mit weniger mehr. Statt alles immer neu zu entwickeln und teure Investitionen tätigen zu müssen, werden vorhandene Netzwerke genutzt, Bestehendes wiederverwendet und neu kombiniert. Dieses Sparsamkeitsprinzip ist ein Ansatz, um die Nutzung knapper Ressourcen zu optimieren und trotzdem einen hohen Wert zu liefern.
- Think and act flexible: Denke und handle flexible. Die Unbeständigkeit und Unberechenbarkeit dynamischer Märkte verlangt Agilität anstatt starrer Businesspläne und statischer Prozesse. Jugaad-Innovatoren stellen den Status Quo permanent in Frage.
- Keep it simple: einfache Ideen sind die besten. Es geht nicht darum, die perfekte Lösung zu entwickeln. Das Motto lautet: „gerade gut genug“ und somit ganz nah am eigentlichen Bedürfnis des Nutzers. Dadurch sind Produkte günstiger herzustellen, günstiger zu erwerben, einfacher handzuhaben und einfacher instand zu halten, was letztlich zu einer höheren Verbreitung führt.
- Include the margins: Inkludiere Minderheiten. In Schwellenländern, in denen Randgruppen oftmals die Mehrheit bilden, wird Inklusion zum moralischen Imperativ. Was Bill Gates als „kreativen Kapitalismus“ bezeichnet, ist für Jugaad-Innovatoren die einzige Möglichkeit, unternehmerisch erfolgreich zu sein.
- Follow your heart: Höre auf Dein Bauchgefühl und folge Deinem Herz. Durch die teilweise extremen Bedingungen im Umfeld sind Jugaad-Innovatoren getrieben von Empathie, Mitgefühl und ihrer Leidenschaft, den Ist-Zustand verändern zu wollen. Das komplexe, instabile, unvorhersehbare Umfeld (vielfach auch als VUCA bezeichnet) verhindert sich auf analytisches Denken und prozessuales Handeln zu verlassen. Der Intuition zu folgen und „aufs Herz zu hören“ sind stattdessen die Basis des Denken und Handelns.
Jugaad ist nicht einfach ein neues Modell für einen „hippen“ Innovationsprozess. Und Jugaad kann auch nicht einfach in eine Organisation „importiert“ werden. Es ist eine Gesinnung, Philosophie und Einstellung, mit der Unternehmen in der zunehmend komplexeren Welt Antworten für einfache Lösungen finden können. Dies geht weit über eine Änderung der Unternehmenskultur hinaus und schließt mit Kunden, Lieferanten und Partnern ein komplettes Ökosystem mit ein. Man kann Jugaad auch nicht einfach mit Agil übersetzen, denn Agilität, Iteration oder Lean sind Prozess-Frameworks, während Jugaad prozesslos ist. Die Herausforderung besteht darin, das Unbekannte zu erkennen, zu erschließen und zu kanalisieren. Jugaad-Innovationen werden häufig auch als „Frugal Engineering“ bezeichnet.
Jobs-to-be-done-Methode
J wie Jobs-to-be-done-Methode
Die Jobs-to-be-done-Methode ist eine der wichtigsten kundenzentrierten Werkzeuge in den modernen Innovationsmethoden. Die dazugehörigen Frameworks wurden von dem amerikanischen Innovationsberater Anthony W. Ulwick und dem Harvard Professor Clayton M. Christensen entwickelt. Sie gelten als die Pioniere dieser Methode. Während Ulwick in den 1990er Jahren die “Outcome Driven Innovation (ODI)” Methode entwickelte, prägte Clayton Christensen im gleichen Zeitraum den Begriff der disruptiven Innovation. Er stellte die Theorie auf, dass auch etablierte oder marktführende Unternehmen durch Innovationen Dritter aus ihrem Markt gedrängt werden. Allerdings konnte er noch keinen Nachweis für seine Theorie liefern, bis Ulwick ihm mit der OID-Methode eine plausible Antwort gab. Nach einem Zusammentreffen der Beiden 1999 wurde die “Jobs Theory” geboren.
Während Jobs-to-be-done von Christensen das zugrundeliegende Framework liefert, stellt die OID-Methode von Ulwick den konkreten Prozess zur Umsetzung der Jobs Theory zur Verfügung. Die Philosophie von Jobs-to-be-done ist relativ simpel. Beide erkannten unabhängig voneinander, dass Kunden ein Produkt oder Leistung in der Regel nur kaufen, um ein Problem zu lösen – also eine Aufgabe (einen Job) zu erledigen oder um ein Bedürfnis zu befriedigen. Im Kern von Jobs-to-be-done geht es um die einfache Frage, warum ein Kunde ein Produkt oder Leistung kauft oder es bleiben lässt und welche Aufgabe damit verbunden wird. Besonders deutlich wird dies in einem Zitat von Christensen: „Customers don’t buy products. They hire them to do a job.” Der Job ist hierbei gekennzeichnet durch ein Problem oder ein Bedürfnis des Kunden. Die Qualität und den Mehrwert beurteilt der Kunde danach, wie hilfreich ein Produkt oder Leistung für die Erfüllung dieser Aufgabe und die Erledigung seines “Jobs” ist. Die Bedürfnisse der Kunden sind hierbei nicht nur funktionaler, sondern auch emotionaler oder sozialer Natur. Um diese herauszuarbeiten hat sich z. B. die 5-Why-Methode bewährt. Diese Methode unterstellt, dass die eine Ursache spätestens nach fünf aufeinanderfolgenden “Warum”-Fragen offensichtlich wird.
In den meisten Produktpräsentationen, Marketingkampagnen und/oder Verkaufsgesprächen liegt der Fokus auf der “funktionalen Vorteilskommunikation”. Diese soll dem Kunden aufzeigen, welche Funktionen das eigene Produkt im Vergleich zu seinen Wettbewerbern aufweist. Der funktionale Nutzen zahlt auf das direkte Ziel des Kunden ein. Dagegen verstecken sich emotionale und soziale Ziele oft in indirekten Zielen, entziehen sich also einer offenliegenden Betrachtung. Das Herausfinden dieser indirekten Ziele bzw. der sozialen und emotionalen Aspekte ist genau die Perspektive, die die Jobs-to-be-done Methode liefert. Es handelt sich um ein mächtiges Framework, da es zudem eine konsequente Kundenorientierung und -zentrierung unterstützt und eine hohe Kundenempathie aufbaut.
Jugaad-Innovationen
J wie Jugaad-Innovationen
Das Wort „Jugaad“ ist Hindi und kann nicht direkt übersetzt werden. Es beschreibt eine improvisierte und/oder provisorische Lösung und kann umgangssprachlich am ehesten mit Cleverness, Einfallsreichtum oder Genialität umschrieben werden. Der Begriff umschreibt die Fähigkeit von Menschen vor allem in den Schwellenländern, Lösungen auch unter schwierigen Bedingungen und widrigsten Bedingungen mit einfachen Mitteln zu finden. Jugaad ist eine eigene Philosophie zu Denken und zu handeln und wird bestimmt dadurch, wie man auf Herausforderungen reagiert. Es ist allerdings mehr als „nur“ ein „Innovationsmodell des armen Mannes“, wie Jugaad häufig auch bezeichnet wird. Immer mehr westliche Unternehmen entdecken das Prinzip für sich und wenden Jugaad-Innovationen in Bereichen an, in denen Neuentwicklungen weniger durch Technologie getrieben werden und neue Produkte im unteren Preissegment angesiedelt sind. Es geht nicht um eine Kehrtwende von 180 Grad, sondern um Synergien zu nutzen. Die Stärken westlicher Unternehmen (Wirtschaftlichkeit durch Größe, Einsatz von hohem Kapital, Vorhandensein von Know-how, Standardisierung und Automatisierung) werden mit den Vorteilen des Jugaad-Ansatzes ergänzt, der sich auf Werteorientiertheit, Flexibilität und Leidenschaft fokussiert. Typische Attribute für Jugaad-Innovationen sind Erschwinglichkeit, Qualität und Nachhaltigkeit und somit alles Eigenschaften, die von Kunden zunehmend geschätzt und nachgefragt werden. Jugaad-Innovationen basieren auf sechs Prinzipien:
- Seek Opportunity in Adversity: jedes Unglück bietet auch Möglichkeiten, jedes Problem auch Chancen, jede Einschränkung auch Potenziale.
- Do more with less: Erreiche mit weniger mehr. Statt alles immer neu zu entwickeln und teure Investitionen tätigen zu müssen, werden vorhandene Netzwerke genutzt, Bestehendes wiederverwendet und neu kombiniert. Dieses Sparsamkeitsprinzip ist ein Ansatz, um die Nutzung knapper Ressourcen zu optimieren und trotzdem einen hohen Wert zu liefern.
- Think and act flexible: Denke und handle flexible. Die Unbeständigkeit und Unberechenbarkeit dynamischer Märkte verlangt Agilität anstatt starrer Businesspläne und statischer Prozesse. Jugaad-Innovatoren stellen den Status Quo permanent in Frage.
- Keep it simple: einfache Ideen sind die besten. Es geht nicht darum, die perfekte Lösung zu entwickeln. Das Motto lautet: „gerade gut genug“ und somit ganz nah am eigentlichen Bedürfnis des Nutzers. Dadurch sind Produkte günstiger herzustellen, günstiger zu erwerben, einfacher handzuhaben und einfacher instand zu halten, was letztlich zu einer höheren Verbreitung führt.
- Include the margins: Inkludiere Minderheiten. In Schwellenländern, in denen Randgruppen oftmals die Mehrheit bilden, wird Inklusion zum moralischen Imperativ. Was Bill Gates als „kreativen Kapitalismus“ bezeichnet, ist für Jugaad-Innovatoren die einzige Möglichkeit, unternehmerisch erfolgreich zu sein.
- Follow your heart: Höre auf Dein Bauchgefühl und folge Deinem Herz. Durch die teilweise extremen Bedingungen im Umfeld sind Jugaad-Innovatoren getrieben von Empathie, Mitgefühl und ihrer Leidenschaft, den Ist-Zustand verändern zu wollen. Das komplexe, instabile, unvorhersehbare Umfeld (vielfach auch als VUCA bezeichnet) verhindert sich auf analytisches Denken und prozessuales Handeln zu verlassen. Der Intuition zu folgen und „aufs Herz zu hören“ sind stattdessen die Basis des Denken und Handelns.
Jugaad ist nicht einfach ein neues Modell für einen „hippen“ Innovationsprozess. Und Jugaad kann auch nicht einfach in eine Organisation „importiert“ werden. Es ist eine Gesinnung, Philosophie und Einstellung, mit der Unternehmen in der zunehmend komplexeren Welt Antworten für einfache Lösungen finden können. Dies geht weit über eine Änderung der Unternehmenskultur hinaus und schließt mit Kunden, Lieferanten und Partnern ein komplettes Ökosystem mit ein. Man kann Jugaad auch nicht einfach mit Agil übersetzen, denn Agilität, Iteration oder Lean sind Prozess-Frameworks, während Jugaad prozesslos ist. Die Herausforderung besteht darin, das Unbekannte zu erkennen, zu erschließen und zu kanalisieren. Jugaad-Innovationen werden häufig auch als „Frugal Engineering“ bezeichnet.
K wie Kaizen-Methode
K wie Kaizen-Methode
Der Begriff Kaizen setzt sich zusammen aus den japanischen Begriffen „Kai“ („Veränderung“) und „Zen“ („zum Besseren“). Die Kaizen-Methode zielt darauf ab, Unternehmensprozesse permanent zu optimieren – durch viele kleine Schritte. Entwickelt wurde die Methode nach dem zweiten Weltkrieg vom japanischen Autohersteller Toyota. Weltweit bekannt wurde das Prinzip in den 1980er Jahren durch Masaaki Imai, der die erfolgreichen Strategien japanischer Manager unter dem Schlagwort “Kaizen“ zusammenfasste. In der westlichen Arbeitswelt wurde die Kaizen-Methode eine der Kernpraktiken im Lean Management zur Verschlankung, Vereinfachung und Optimierung von Prozessen und ab den 1990er Jahren besser bekannt unter dem Begriff KVP (Kontinuierlicher Verbesserungsprozess). Allerdings können Kaizen und KVP bei genauer Betrachtung nicht gleichgesetzt werden, denn nur in der Methodik („wie“) gibt es Parallelen. In der Haltung („warum“) unterscheiden sich Kaizen und KVP erheblich, schon allein aufgrund kulturellen Unterschiede.
Das Ziel beider Ansätze ist die langsame, kontinuierliche und nachhaltige Verbesserung. Im Kern geht es nicht um die sprunghafte Veränderung z. B. durch Innovation oder schnellen Umsatz oder Gewinn, sondern um die schrittweise Optimierung von Produkten und Prozessen. Dem entsprechend muss der Ansatz in der gesamten Organisation mitgetragen werden, um die Wirkung entfalten zu können. Jeder im Unternehmen ist aufgefordert, Verbesserungsvorschläge zu Problemen einzubringen, die er in seinem Umfeld täglich beobachtet. Der essenzielle Unterschied beider Methoden besteht darin, dass in Japan das „Bottom-up“-Prinzip viel stärker ausgeprägt ist als in der westlichen Arbeitswelt, in der das „Top-down“-Prinzip immer noch den Alltag beherrscht, auch wenn Transformation und Startups langsam einen Wandel herbeiführen.
Der wesentliche Unterschied liegt aber nicht in der Methodik, sondern der Haltung oder Einstellung. Während in westlichen Unternehmen das prozess- und ergebnisorientierte Denken vorherrscht, liegt der Fokus in japanischen Unternehmen im innovationsorientierten und ganzheitlichen Denken. Kaizen ist eine Denkhaltung, Einstellung und Philosophie. Deshalb bleibt in vielen westlichen Unternehmen die Übertragung und Anwendung der Kaizen-Methode reine Theorie. Denn Elemente aus dem Werkzeugkoffer können nicht einfach von oben „verordnet“ werden, denn das Management muss die Kaizen-Methode tagtäglich vorleben und ist selbst gefordert, „jeden Tag etwas besser zu machen“ und die Rahmenbedingungen zu schaffen, damit aus Mit-Arbeitern Mit-Denker werden. Dies bedingt einen Kulturwandel und braucht Zeit, Geduld und Disziplin sowie eine werteorientierte Kommunikation. So ergibt sich ein kontinuierlicher Zyklus aus Planung, Tätigkeit, Kontrolle und Verbesserung (kurz: PDCA-Zyklus: Plan, Do, Check, Act).
Kaizen erfordert einen kooperativen Führungsstil, eine gemeinsame, klare Zielformulierung und einen transparenten Konsens. Kaizen ist ein fortlaufender Prozess, ein Marathon und kein Sprint, bei dem der Weg das Ziel ist. Nur so werden Unternehmen Kosten einsparen, ein besseres Betriebsklima und eine bessere Zusammenarbeit bekommen, eine höhere Mitarbeitermotivation erzielen, die Produkt- und Prozessqualität sowie Produktivität steigern und somit eine höhere Kundenzufriedenheit erreichen.
Elemente des Werkzeugkoffers aus der Kaizen-Methode sind z. B. das Prinzip der 5S:
- Seiri (Sortieren): sich nur auf die wirklich wichtigen Arbeitsmittel konzentrieren und alles entfernen, was stört oder von der eigentlichen Arbeit ablenkt.
- Seiton (Systematisieren): die Dinge sinnvoll ordnen (z. B. durch Beschriftung)
- Seiso (Sauberkeit): den Arbeitsplatz sauber halten
- Seiketsu (Standardisieren): Ordnung und Sauberkeit am Arbeitsplatz durch das Festlegen von Standards zur Gewohnheit machen.
- Shitsuke (Selbstdisziplin): das 5S-Prinzip zum persönlichen Anliegen machen und auf die regelmäßige Anwendung achten
Ein weiteres nützliches Kaizen-Werkzeug ist 3 Mu:
- Muda (Verschwendung) umfasst 7 grundlegende Prozessverschwendungen: Überproduktion, Bestände, Transport, Wartezeiten, zu aufwändige Prozesse, unnötige Bewegung, Fehler
- Muri (Überlastung) von Mitarbeitern oder Maschinen
- Mura (Abweichung) von Standards oder Regeln
K wie Kanban
Der Begriff Kanban stammt aus dem Japanischen und bedeutet so viel wie Karte, Tafel oder Beleg und geht auf den Erfinder des Toyota-Produktionssystems Taiichi Ohno zurück. Er lies sich von dem Mechanismus in einem Supermarkt inspirieren, in dem Kunden den Warenabfluss bestimmen und die Mitarbeiter im Supermarkt über die Lieferanten dafür sorgten, dass die Bestände wieder aufgefüllt werden. Das Grundprinzip von Kanban ist die Organisation von mehrstufigen Produktionsprozessen in Form von miteinander verknüpften Regelkreisen. Aufgrund dieses Just-in-Time-Prinzips können Bestände auf die tatsächlich benötigten Mengen reduziert und Produktionsprozesse verschlankt werden. Kanban-Karten unterstützen dabei, den Fluss der Arbeit zu visualisieren. Im klassischen Modell zeigen dabei Spalten (von links nach rechts) den jeweiligen Status an: in der linken Spalte (to Do) werden die Aufgaben aufgelistet, deren Bearbeitung noch anstehen. In der mittleren Spalte (in Progress) werden die Aufgaben angezeigt, mit deren Bearbeitung begonnen wurde und in der rechten Spalte (Done) werden die Aufgaben angezeigt, die erledigt sind. Kanban ist ein sehr flexibler Ansatz, da die einzelnen Spalten an die speziellen Anforderungen angepasst werden können.
Das Kanban-Prinzip basiert auf sechs Grundsätzen:
- klare Regeln: Alle Regeln für den Prozess müssen transparent sein und von allen Beteiligten verstanden und umgesetzt werden.
- Aufgabenlimit: Die Zahl der zur Verfügung stehenden Karten ist zu begrenzen und auf die Anzahl der Aufgaben abzustimmen.
- Workflow: Es muss gewährleistet sein, dass immer Aufgaben in Bearbeitung sind und ein stetiger Workflow gegeben ist.
- Kontinuierlicher Verbesserungsprozess: Kanban-Prozesse sind regelmäßig zu analysieren, um die Effizienz der Arbeitsweise weiter zu verbessern.
- Leadership: das Team hat auf allen Ebenen die Verantwortung, den Workflow zu erhalten und sich aktiv für die Verbesserung von Abläufen einzusetzen.
- Modelle: Die Verwendung von Modellen kann zu einem besseren Verständnis für Prozesse und zu effizienteren Lösungen führen.
David Anderson übertrug Mitte der 2000er-Jahre das Kanban-Prinzip auf das IT-Projektmanagement und definierte vier Grundprinzipien:
- Gestartet wird auf dem Status quo.
- Umgesetzt werden inkrementelle, evolutionäre Veränderungen.
- Aktuelle Prozesse, Rollen, Verantwortlichkeiten und Ansprüche sind zu respektieren.
- Leadership ist auf allen Ebenen in der Organisation zu fördern und vom Top-Management zu unterstützen.
Typisch für diese Methode ist die vergrößerte Autonomie von Projektteams, was die Arbeitsmotivation ganzer Teams oder einzelner Mitglieder steigert. Die Teammitglieder „holen” sich ihre Aufgaben aus einem Backlog (Aufgabenpool) selbst, um so den Workflow aufrecht zu erhalten. Bei agilen Methoden profitieren die Teams von kurzen Sprints (Scrum), so dass Fehleinschätzungen und -entwicklungen schneller bemerkt und gegengesteuert werden kann.
Kanban ist eine einfache und effektive Methode, um das Aufgabenmanagement in der Projektarbeit zu verbessern. Neben einer höheren Transparenz wird der Managementaufwand reduziert, die Umsetzungsgeschwindigkeit gesteigert und die Gestaltungsmöglichkeiten erhöht. Dank flexibler Regeln ist Kanban als Instrument in agilen Arbeitsmethoden sehr beliebt. Dies setzt allerdings eine höhere Disziplin und Eigenverantwortung in der Selbstorganisation der Teams voraus.
K wie Kano-Modell
Das Kano-Modell kommt zur Anwendung, um den Zusammenhang zwischen den Eigenschaften eines Produkts oder einer Dienstleistung und der Kundenzufriedenheit systematisch darzustellen. Aus der Analyse von Kundenwünschen leitete der japanische Professor Noriaki Kano Ende der 1970-er Jahre ab, dass Kundenanforderungen unterschiedlicher Art sein können. Das nach ihm benannte Modell erlaubt es, Bedarfe und Bedürfnisse, Erwartungen und Wünsche von Kunden zu erfassen und bei der Entwicklung von Produkten und Dienstleistungen zu berücksichtigen. Das Kano-Modell unterscheidet hierbei fünf Ebenen der Qualität:
- Basis-Merkmale, die so grundlegend und selbstverständlich sind, dass sie den Kunden erst bei Nichterfüllung bewusst werden (implizite Erwartungen). Werden diese Grundforderungen nicht erfüllt, entsteht schnell Unzufriedenheit bei Kunden. Werden diese Grundforderungen dagegen erfüllt, entsteht aber keine Zufriedenheit bei Kunden, da die Wahrnehmung als Selbstverständlichkeit gesehen wird.
- Leistungs-Merkmale sind dem Kunden bewusst, sie beseitigen Unzufriedenheit oder schaffen Zufriedenheit abhängig vom Ausmaß der Erfüllung. Diese Merkmale werden häufig als Hygienefaktoren bezeichnet.
- Begeisterungs-Merkmale sind dagegen nutzenstiftende Merkmale, mit denen der Kunde nicht unbedingt rechnet. Hierbei handelt es sich um Mehrwerte, mit denen sich das Produkt oder die Dienstleistung gegenüber dem Wettbewerb auszeichnet. Bereits kleine Leistungssteigerungen können zu einem überproportionalen Nutzen führen und rufen nicht selten Begeisterung hervor.
- Unerheblich sind die Merkmale, die sowohl beim Vorhandensein als auch beim Fehlen ohne Belang für den Kunden sind, da sie weder Zufriedenheit stiften noch Unzufriedenheit hervorrufen.
- Rückweisungs-Merkmale führen beim Vorhandensein zur Unzufriedenheit beim Kunden und beim Fehlen zur Zufriedenheit.
Bei Anwendung des Kano-Modells muss berücksichtigt werden, dass sich die Wahrnehmung und subjektive Bewertung der Kunden mit der Zeit ändern können. Dies ist vor allem bei Begeisterungsmerkmalen oft der Fall, wenn diese neu angeboten werden (Innovationen) und einige Zeit später von einigen wenigen Unternehmen angeboten werden (Leistungsmerkmal zur Differenzierung) und später zum Branchenstandard werden (Basismerkmal). Zu dem Zeitpunkt ist unter den Kunden ein Gewöhnungseffekt eingetreten.
Des Weiteren wird bei Anwendung des Kano-Modells oft vernachlässigt, dass die Beurteilung und Bewertung von Produkteigenschaften oder dem Nutzen einer Dienstleistung stets mit dem Preis in Verbindung steht. Daher empfiehlt sich, auch den Vorbehaltspreis (oder auch Reservationspreis) für einzelne Produkteigenschaften oder den Nutzen einer Dienstleistung empirisch zu erheben.
K wie Kill the Company
„Kill the Company“ ist ein Workshop-Format, mit dem ein Stresstest auf das eigene Geschäftsmodell simuliert wird. Der Ansatz ist geradezu ideal für Unternehmen, die sich eine ausgeprägte Komfortzone eingerichtet haben. Konstante Umsätze, kontinuierliche Gewinne, wenig Fluktuation bei Bestandskunden und/oder Mitarbeitern, einen hohen Marktanteil und ein konservatives Geschäftsumfeld führen häufig dazu, dass sich Unternehmen zu sicher sind und mögliche Risiken ausblenden. Zahlreiche Branchen und/oder Marken mit weltweiter Bekanntheit sind Beleg dafür, wozu dies führen kann. Der Ansatz „Kill the Company“ simuliert die Situation, wenn das eigene Geschäftsmodell „über Nacht“ obsolet wird. Dies kann durch das Wegbrechen von Ressourcen, verändertes Verhalten von Kunden, ein Angriff durch Wettbewerber oder das Eintreten neuer Marktteilnehmer usw. verursacht werden. Phrasen wie „das haben wir schon immer so gemacht“ oder „was soll uns schon passieren“ können somit auf eine drastische Weise ausgehebelt werden.
Das Format dient in erster Linie dazu, eine von außen nach innen gerichtete Perspektive einzunehmen, das eigene Geschäftsmodell objektiv zu bewerten und neue Erkenntnisse über die eigene Kundenorientierung, Wettbewerbsfähigkeit und Innovationskraft zu erlangen. „Kill the Company“ identifiziert die Schwachpunkte und schärft die Sinne für eine zukunftsorientierte Geschäftsentwicklung. Deshalb muss ein derartiger Workshop vom Top-Management gewollt sein und professionell moderiert werden. Ein externer Coach sorgt für zusätzliche Impulse oder situationsbedingt gezielt einen Reizpunkt, hat die nötige Objektivität für den Blick von außen oder über den Tellerrand hinaus, provoziert mit verrückten Standpunkten und Perspektiven, so dass die Teilnehmer immer wieder mit neuen und unvorhergesehenen Situationen konfrontiert werden. Neben der Selbstreflexion können sie zusätzlich aus neuen Ideen Inspiration schöpfen. Außerdem können Externe anders agieren, um interne Widerstände, Bereichsdenken oder Bequemlichkeit zu identifizieren.
Der Teilnehmerkreis muss gut ausgewählt werden, sollte hierarchieübergreifend und interdisziplinär sein, junge Nachwuchstalente genauso berücksichtigen wie erfahrene Führungskräfte. Je nach Aufgabenstellung und Unternehmenskultur können auch Externe den Workshop bereichern. Sie unterstützen den Moderator in der Perspektive von außen und müssen auf interne Animositäten keine Rücksicht nehmen.
„Kill the Company“ sollte allerdings nicht als Freifahrtschein für unzufriedene Mitarbeiter missverstanden werden, die es mal so richtig krachen lassen und ihren Unmut über das Unternehmen loswerden möchten. Der Workshop hat ein klares Ziel und dient einer konstruktiven Lösungsfindung nach schonungsloser Analyse. Letztere darf nicht auf der persönlichen Ebene ausgetragen werden und hat immer einen sachlichen Bezug. Daher sollte idealerweise zu Beginn eines derartigen Workshops ein Impulsvortrag stattfinden, der einen Ausblick auf die Welt in fünf bis zehn Jahren gibt und übersetzt, was dies für das eigene Geschäftsumfeld und somit -modell bedeuten kann. Auch hierbei hat sich bewährt, das Zukunftsszenario aus der Retrospektive darzustellen.
Elementar an diesem Format ist, dass der Workshop nicht nach der Identifizierung möglicher Gefahrensituationen endet und die Teilnehmer somit in einer starken Verunsicherung zurücklässt. Denn das eigene Geschäftsmodell in Gefahr zu sehen, kann unkontrollierte Kräfte, Ängste und Unsicherheit auslösen. Nach der Erfassung potenzieller Gefahrenquellen werden diese thematisch zusammengefasst und bewertet. Hierbei wird unterschieden zwischen Risiken, die ein Unternehmen nicht abwenden kann und Gefahren, denen durch gezielte Maßnahmen entgegengewirkt werden kann. Anschließend werden in einzelnen Gruppen verschiedene Szenarien durchgespielt und konkrete Maßnahmen entwickelt.
K wie KISS-Prinzip
KISS ist ein Akronym und steht für „Keep It Simple and Stupid“, also „mache es so einfach wie möglich“. Da sich diese universelle Aussage auf sehr viele Bereiche und Situationen anwenden lässt, wird auch gerne vom KISS-Prinzip gesprochen. Als Prinzip rückt es die Einfachheit in den Fokus, sowohl als Mittel als auch als Ziel. Es fordert, Dinge nicht zu kompliziert zu sehen oder zu machen, und stets die einfachste Lösung für ein Problem zu suchen oder zu nutzen. In den vergangenen Jahren wurden für das Akronym alternative Interpretationen entwickelt:
- KISS = Keep It Short and Simple (“Mache es kurz und einfach“)
- KISS = Keep It Simple and Smart (“Mache es einfach und schlau)
- KISS = Keep It Simple and Straightforward (“Mache es einfach und unkompliziert“)
- KISS = Keep It Simply Stupid (“Mache es einfach idiotensicher“)
Bis heute allerdings ist nicht eindeutig beantwortet, wofür das „It“ steht. Hierbei kann es sich um unterschiedliche Anwendungsbereiche wie z. B. Produktsortiment, Projektmanagement, Reporting, Design und Entwurf, Spezifikationen und Prototypen, Hardware- und/oder Softwareentwicklung, Beschaffungsmanagement und Supply Chain oder um die Interaktion mit Kunden im Geschäftsmodell handeln.
K wie Konservative Innovatoren
Konservative Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist eine hohe Ausrichtung und starke Aktivität in Forschung und Entwicklung sowie das Vorhandensein von Patenten und anderen Schutzrechten. Der Innovationsprozess ist eher klassisch organisiert und durchläuft einen Stage-Gate-Prozess. Eine ganzheitliche Ausrichtung der Unternehmenskultur auf Innovationen ist eher nicht gegeben. Gleiches gilt für die Einbindung der Mitarbeiter. In den meisten Fällen findet das Innovationsmanagement in den dafür vorgesehenen Fachabteilungen, Strukturen und Prozessen statt. Typische Branchen für konservative Innovatoren sind Chemie, Pharma, Kunststoff und Maschinenbau. Unter allen Unternehmen beträgt ihr Anteil nur knapp fünf Prozent.
→ innovative Milieus
K wie Kooperationsorientierte Innovationsstrategie
Kooperationen nehmen im strategischen Innovationsmanagement zunehmend eine wichtigere Rolle ein. Vor allem kleine und mittlere Unternehmen können in Kooperationen, Netzwerken und strategischen Partnerschaften Innovationsprojekte realisieren, zu denen sie allein nicht in der Lage wären. Da besonders die Technologieentwicklung mit hohen Kosten, Risiken und Vorlaufzeiten verbunden sind, können diese durch Kooperationen verteilt und für jeden Einzelnen reduziert werden. Kooperationsorientierte Innovationsprojekte empfehlen sich vor allem für kleine Unternehmen, die aus eigener Kraft keine Forschung und Entwicklung betreiben können. Man unterscheidet zwischen
- horizontaler Kooperation, wenn zwei Unternehmen auf gleicher Wertschöpfungsstufe zusammenarbeiten,
- vertikaler Kooperation, bei der vor- und nachgelagerte Stufen der Wertschöpfungskette einbezogen werden und
- lateraler Kooperation, bei der Unternehmen miteinander kooperieren, ohne in einer Wertschöpfungsbeziehung zueinander zu stehen oder miteinander im Wettbewerb zu stehen.
K wie kooperative Innovatoren
Kooperative Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist eine starke Mitarbeiterorientierung sowie interdisziplinäre Kollaboration. Innovationen entstehen durch eine gute interne Vernetzung und das aktive Einbinden aller Mitarbeiter. Teamarbeit und Partizipation stehen dabei im Vordergrund. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gelebt. Außerdem ist der Innovationsprozess besser organisiert und strukturiert als z. B. bei den →konservativen Innovatoren, dagegen ist der Bereich Forschung und Entwicklung genauso schwach ausgebildet wie das Wissensmanagement und die Vernetzung mit der Wissenschaft. Mit rund einem Viertel aller Unternehmen stellen die kooperativen Innovatoren das größte Milieu dar.
→ innovative Milieus
K wie KVP (kontinuierlicher Verbesserungsprozess)
Der übergeordnete Begriff für den kontinuierlichen Verbesserungsprozess (KVP) ist die Prozessoptimierung und somit ein wichtiger Bestandteil des Qualitätsmanagements und/oder des Ideenmanagements. Unternehmen etablieren in der Regel einen KVP im Rahmen einer IS0 9001 Zertifizierung, um Strukturen und Prozesse im Rahmen des Audits nachweisen zu können. Ein kontinuierlicher Verbesserungsprozess sollte allerdings mehr sein: eine Grundhaltung innerhalb eines Unternehmens. Beim aktiven KVP geht es ähnlich wie bei der Six Sigma- oder KAIZEN-Methode darum, die Effizienz von Prozessen und deren kontinuierliche Verbesserung zu messen. Der KVP ist die Methode und der Weg – Prozessoptimierung das Ziel.
Im Gegensatz zur Innovation und Methoden im Innovationsmanagement, bei denen neue Produkte und Dienstleistungen entwickelt werden, Verfahren- oder Prozessentwicklungen auf technologische Weiterentwicklungen zurück zu führen sind oder neue Vertriebs- oder Geschäftsmodelle etabliert werden, geht es beim kontinuierlichen Verbesserungsprozess um die systematische Optimierung des Bestehenden und um eine Methode der kleinen Schritte. Hierfür werden Qualitätszirkel oder KVP-Teams eingerichtet, die für die vier Erfolgsfaktoren verantwortlich sind: Identifikation von Chancen, Aufbau einer Optimierungsagenda, Aktivierung von Mitarbeitern und Entwicklung von Strukturen für die Umsetzung. Deshalb müssen KVP-Teams nicht nur abteilungsübergreifend und interdisziplinär besetzt werden, sondern müssen ein nachhaltiges Engagement und die volle Unterstützung der Geschäftsleitung genießen.
Kaizen-Methode
K wie Kaizen-Methode
Der Begriff Kaizen setzt sich zusammen aus den japanischen Begriffen „Kai“ („Veränderung“) und „Zen“ („zum Besseren“). Die Kaizen-Methode zielt darauf ab, Unternehmensprozesse permanent zu optimieren – durch viele kleine Schritte. Entwickelt wurde die Methode nach dem zweiten Weltkrieg vom japanischen Autohersteller Toyota. Weltweit bekannt wurde das Prinzip in den 1980er Jahren durch Masaaki Imai, der die erfolgreichen Strategien japanischer Manager unter dem Schlagwort “Kaizen“ zusammenfasste. In der westlichen Arbeitswelt wurde die Kaizen-Methode eine der Kernpraktiken im Lean Management zur Verschlankung, Vereinfachung und Optimierung von Prozessen und ab den 1990er Jahren besser bekannt unter dem Begriff KVP (Kontinuierlicher Verbesserungsprozess). Allerdings können Kaizen und KVP bei genauer Betrachtung nicht gleichgesetzt werden, denn nur in der Methodik („wie“) gibt es Parallelen. In der Haltung („warum“) unterscheiden sich Kaizen und KVP erheblich, schon allein aufgrund kulturellen Unterschiede.
Das Ziel beider Ansätze ist die langsame, kontinuierliche und nachhaltige Verbesserung. Im Kern geht es nicht um die sprunghafte Veränderung z. B. durch Innovation oder schnellen Umsatz oder Gewinn, sondern um die schrittweise Optimierung von Produkten und Prozessen. Dem entsprechend muss der Ansatz in der gesamten Organisation mitgetragen werden, um die Wirkung entfalten zu können. Jeder im Unternehmen ist aufgefordert, Verbesserungsvorschläge zu Problemen einzubringen, die er in seinem Umfeld täglich beobachtet. Der essenzielle Unterschied beider Methoden besteht darin, dass in Japan das „Bottom-up“-Prinzip viel stärker ausgeprägt ist als in der westlichen Arbeitswelt, in der das „Top-down“-Prinzip immer noch den Alltag beherrscht, auch wenn Transformation und Startups langsam einen Wandel herbeiführen.
Der wesentliche Unterschied liegt aber nicht in der Methodik, sondern der Haltung oder Einstellung. Während in westlichen Unternehmen das prozess- und ergebnisorientierte Denken vorherrscht, liegt der Fokus in japanischen Unternehmen im innovationsorientierten und ganzheitlichen Denken. Kaizen ist eine Denkhaltung, Einstellung und Philosophie. Deshalb bleibt in vielen westlichen Unternehmen die Übertragung und Anwendung der Kaizen-Methode reine Theorie. Denn Elemente aus dem Werkzeugkoffer können nicht einfach von oben „verordnet“ werden, denn das Management muss die Kaizen-Methode tagtäglich vorleben und ist selbst gefordert, „jeden Tag etwas besser zu machen“ und die Rahmenbedingungen zu schaffen, damit aus Mit-Arbeitern Mit-Denker werden. Dies bedingt einen Kulturwandel und braucht Zeit, Geduld und Disziplin sowie eine werteorientierte Kommunikation. So ergibt sich ein kontinuierlicher Zyklus aus Planung, Tätigkeit, Kontrolle und Verbesserung (kurz: PDCA-Zyklus: Plan, Do, Check, Act).
Kaizen erfordert einen kooperativen Führungsstil, eine gemeinsame, klare Zielformulierung und einen transparenten Konsens. Kaizen ist ein fortlaufender Prozess, ein Marathon und kein Sprint, bei dem der Weg das Ziel ist. Nur so werden Unternehmen Kosten einsparen, ein besseres Betriebsklima und eine bessere Zusammenarbeit bekommen, eine höhere Mitarbeitermotivation erzielen, die Produkt- und Prozessqualität sowie Produktivität steigern und somit eine höhere Kundenzufriedenheit erreichen.
Elemente des Werkzeugkoffers aus der Kaizen-Methode sind z. B. das Prinzip der 5S:
- Seiri (Sortieren): sich nur auf die wirklich wichtigen Arbeitsmittel konzentrieren und alles entfernen, was stört oder von der eigentlichen Arbeit ablenkt.
- Seiton (Systematisieren): die Dinge sinnvoll ordnen (z. B. durch Beschriftung)
- Seiso (Sauberkeit): den Arbeitsplatz sauber halten
- Seiketsu (Standardisieren): Ordnung und Sauberkeit am Arbeitsplatz durch das Festlegen von Standards zur Gewohnheit machen.
- Shitsuke (Selbstdisziplin): das 5S-Prinzip zum persönlichen Anliegen machen und auf die regelmäßige Anwendung achten
Ein weiteres nützliches Kaizen-Werkzeug ist 3 Mu:
- Muda (Verschwendung) umfasst 7 grundlegende Prozessverschwendungen: Überproduktion, Bestände, Transport, Wartezeiten, zu aufwändige Prozesse, unnötige Bewegung, Fehler
- Muri (Überlastung) von Mitarbeitern oder Maschinen
- Mura (Abweichung) von Standards oder Regeln
Kanban
K wie Kanban
Der Begriff Kanban stammt aus dem Japanischen und bedeutet so viel wie Karte, Tafel oder Beleg und geht auf den Erfinder des Toyota-Produktionssystems Taiichi Ohno zurück. Er lies sich von dem Mechanismus in einem Supermarkt inspirieren, in dem Kunden den Warenabfluss bestimmen und die Mitarbeiter im Supermarkt über die Lieferanten dafür sorgten, dass die Bestände wieder aufgefüllt werden. Das Grundprinzip von Kanban ist die Organisation von mehrstufigen Produktionsprozessen in Form von miteinander verknüpften Regelkreisen. Aufgrund dieses Just-in-Time-Prinzips können Bestände auf die tatsächlich benötigten Mengen reduziert und Produktionsprozesse verschlankt werden. Kanban-Karten unterstützen dabei, den Fluss der Arbeit zu visualisieren. Im klassischen Modell zeigen dabei Spalten (von links nach rechts) den jeweiligen Status an: in der linken Spalte (to Do) werden die Aufgaben aufgelistet, deren Bearbeitung noch anstehen. In der mittleren Spalte (in Progress) werden die Aufgaben angezeigt, mit deren Bearbeitung begonnen wurde und in der rechten Spalte (Done) werden die Aufgaben angezeigt, die erledigt sind. Kanban ist ein sehr flexibler Ansatz, da die einzelnen Spalten an die speziellen Anforderungen angepasst werden können.
Das Kanban-Prinzip basiert auf sechs Grundsätzen:
- klare Regeln: Alle Regeln für den Prozess müssen transparent sein und von allen Beteiligten verstanden und umgesetzt werden.
- Aufgabenlimit: Die Zahl der zur Verfügung stehenden Karten ist zu begrenzen und auf die Anzahl der Aufgaben abzustimmen.
- Workflow: Es muss gewährleistet sein, dass immer Aufgaben in Bearbeitung sind und ein stetiger Workflow gegeben ist.
- Kontinuierlicher Verbesserungsprozess: Kanban-Prozesse sind regelmäßig zu analysieren, um die Effizienz der Arbeitsweise weiter zu verbessern.
- Leadership: das Team hat auf allen Ebenen die Verantwortung, den Workflow zu erhalten und sich aktiv für die Verbesserung von Abläufen einzusetzen.
- Modelle: Die Verwendung von Modellen kann zu einem besseren Verständnis für Prozesse und zu effizienteren Lösungen führen.
David Anderson übertrug Mitte der 2000er-Jahre das Kanban-Prinzip auf das IT-Projektmanagement und definierte vier Grundprinzipien:
- Gestartet wird auf dem Status quo.
- Umgesetzt werden inkrementelle, evolutionäre Veränderungen.
- Aktuelle Prozesse, Rollen, Verantwortlichkeiten und Ansprüche sind zu respektieren.
- Leadership ist auf allen Ebenen in der Organisation zu fördern und vom Top-Management zu unterstützen.
Typisch für diese Methode ist die vergrößerte Autonomie von Projektteams, was die Arbeitsmotivation ganzer Teams oder einzelner Mitglieder steigert. Die Teammitglieder „holen” sich ihre Aufgaben aus einem Backlog (Aufgabenpool) selbst, um so den Workflow aufrecht zu erhalten. Bei agilen Methoden profitieren die Teams von kurzen Sprints (Scrum), so dass Fehleinschätzungen und -entwicklungen schneller bemerkt und gegengesteuert werden kann.
Kanban ist eine einfache und effektive Methode, um das Aufgabenmanagement in der Projektarbeit zu verbessern. Neben einer höheren Transparenz wird der Managementaufwand reduziert, die Umsetzungsgeschwindigkeit gesteigert und die Gestaltungsmöglichkeiten erhöht. Dank flexibler Regeln ist Kanban als Instrument in agilen Arbeitsmethoden sehr beliebt. Dies setzt allerdings eine höhere Disziplin und Eigenverantwortung in der Selbstorganisation der Teams voraus.
Kano-Modell
K wie Kano-Modell
Das Kano-Modell kommt zur Anwendung, um den Zusammenhang zwischen den Eigenschaften eines Produkts oder einer Dienstleistung und der Kundenzufriedenheit systematisch darzustellen. Aus der Analyse von Kundenwünschen leitete der japanische Professor Noriaki Kano Ende der 1970-er Jahre ab, dass Kundenanforderungen unterschiedlicher Art sein können. Das nach ihm benannte Modell erlaubt es, Bedarfe und Bedürfnisse, Erwartungen und Wünsche von Kunden zu erfassen und bei der Entwicklung von Produkten und Dienstleistungen zu berücksichtigen. Das Kano-Modell unterscheidet hierbei fünf Ebenen der Qualität:
- Basis-Merkmale, die so grundlegend und selbstverständlich sind, dass sie den Kunden erst bei Nichterfüllung bewusst werden (implizite Erwartungen). Werden diese Grundforderungen nicht erfüllt, entsteht schnell Unzufriedenheit bei Kunden. Werden diese Grundforderungen dagegen erfüllt, entsteht aber keine Zufriedenheit bei Kunden, da die Wahrnehmung als Selbstverständlichkeit gesehen wird.
- Leistungs-Merkmale sind dem Kunden bewusst, sie beseitigen Unzufriedenheit oder schaffen Zufriedenheit abhängig vom Ausmaß der Erfüllung. Diese Merkmale werden häufig als Hygienefaktoren bezeichnet.
- Begeisterungs-Merkmale sind dagegen nutzenstiftende Merkmale, mit denen der Kunde nicht unbedingt rechnet. Hierbei handelt es sich um Mehrwerte, mit denen sich das Produkt oder die Dienstleistung gegenüber dem Wettbewerb auszeichnet. Bereits kleine Leistungssteigerungen können zu einem überproportionalen Nutzen führen und rufen nicht selten Begeisterung hervor.
- Unerheblich sind die Merkmale, die sowohl beim Vorhandensein als auch beim Fehlen ohne Belang für den Kunden sind, da sie weder Zufriedenheit stiften noch Unzufriedenheit hervorrufen.
- Rückweisungs-Merkmale führen beim Vorhandensein zur Unzufriedenheit beim Kunden und beim Fehlen zur Zufriedenheit.
Bei Anwendung des Kano-Modells muss berücksichtigt werden, dass sich die Wahrnehmung und subjektive Bewertung der Kunden mit der Zeit ändern können. Dies ist vor allem bei Begeisterungsmerkmalen oft der Fall, wenn diese neu angeboten werden (Innovationen) und einige Zeit später von einigen wenigen Unternehmen angeboten werden (Leistungsmerkmal zur Differenzierung) und später zum Branchenstandard werden (Basismerkmal). Zu dem Zeitpunkt ist unter den Kunden ein Gewöhnungseffekt eingetreten.
Des Weiteren wird bei Anwendung des Kano-Modells oft vernachlässigt, dass die Beurteilung und Bewertung von Produkteigenschaften oder dem Nutzen einer Dienstleistung stets mit dem Preis in Verbindung steht. Daher empfiehlt sich, auch den Vorbehaltspreis (oder auch Reservationspreis) für einzelne Produkteigenschaften oder den Nutzen einer Dienstleistung empirisch zu erheben.
Kill the Company
K wie Kill the Company
„Kill the Company“ ist ein Workshop-Format, mit dem ein Stresstest auf das eigene Geschäftsmodell simuliert wird. Der Ansatz ist geradezu ideal für Unternehmen, die sich eine ausgeprägte Komfortzone eingerichtet haben. Konstante Umsätze, kontinuierliche Gewinne, wenig Fluktuation bei Bestandskunden und/oder Mitarbeitern, einen hohen Marktanteil und ein konservatives Geschäftsumfeld führen häufig dazu, dass sich Unternehmen zu sicher sind und mögliche Risiken ausblenden. Zahlreiche Branchen und/oder Marken mit weltweiter Bekanntheit sind Beleg dafür, wozu dies führen kann. Der Ansatz „Kill the Company“ simuliert die Situation, wenn das eigene Geschäftsmodell „über Nacht“ obsolet wird. Dies kann durch das Wegbrechen von Ressourcen, verändertes Verhalten von Kunden, ein Angriff durch Wettbewerber oder das Eintreten neuer Marktteilnehmer usw. verursacht werden. Phrasen wie „das haben wir schon immer so gemacht“ oder „was soll uns schon passieren“ können somit auf eine drastische Weise ausgehebelt werden.
Das Format dient in erster Linie dazu, eine von außen nach innen gerichtete Perspektive einzunehmen, das eigene Geschäftsmodell objektiv zu bewerten und neue Erkenntnisse über die eigene Kundenorientierung, Wettbewerbsfähigkeit und Innovationskraft zu erlangen. „Kill the Company“ identifiziert die Schwachpunkte und schärft die Sinne für eine zukunftsorientierte Geschäftsentwicklung. Deshalb muss ein derartiger Workshop vom Top-Management gewollt sein und professionell moderiert werden. Ein externer Coach sorgt für zusätzliche Impulse oder situationsbedingt gezielt einen Reizpunkt, hat die nötige Objektivität für den Blick von außen oder über den Tellerrand hinaus, provoziert mit verrückten Standpunkten und Perspektiven, so dass die Teilnehmer immer wieder mit neuen und unvorhergesehenen Situationen konfrontiert werden. Neben der Selbstreflexion können sie zusätzlich aus neuen Ideen Inspiration schöpfen. Außerdem können Externe anders agieren, um interne Widerstände, Bereichsdenken oder Bequemlichkeit zu identifizieren.
Der Teilnehmerkreis muss gut ausgewählt werden, sollte hierarchieübergreifend und interdisziplinär sein, junge Nachwuchstalente genauso berücksichtigen wie erfahrene Führungskräfte. Je nach Aufgabenstellung und Unternehmenskultur können auch Externe den Workshop bereichern. Sie unterstützen den Moderator in der Perspektive von außen und müssen auf interne Animositäten keine Rücksicht nehmen.
„Kill the Company“ sollte allerdings nicht als Freifahrtschein für unzufriedene Mitarbeiter missverstanden werden, die es mal so richtig krachen lassen und ihren Unmut über das Unternehmen loswerden möchten. Der Workshop hat ein klares Ziel und dient einer konstruktiven Lösungsfindung nach schonungsloser Analyse. Letztere darf nicht auf der persönlichen Ebene ausgetragen werden und hat immer einen sachlichen Bezug. Daher sollte idealerweise zu Beginn eines derartigen Workshops ein Impulsvortrag stattfinden, der einen Ausblick auf die Welt in fünf bis zehn Jahren gibt und übersetzt, was dies für das eigene Geschäftsumfeld und somit -modell bedeuten kann. Auch hierbei hat sich bewährt, das Zukunftsszenario aus der Retrospektive darzustellen.
Elementar an diesem Format ist, dass der Workshop nicht nach der Identifizierung möglicher Gefahrensituationen endet und die Teilnehmer somit in einer starken Verunsicherung zurücklässt. Denn das eigene Geschäftsmodell in Gefahr zu sehen, kann unkontrollierte Kräfte, Ängste und Unsicherheit auslösen. Nach der Erfassung potenzieller Gefahrenquellen werden diese thematisch zusammengefasst und bewertet. Hierbei wird unterschieden zwischen Risiken, die ein Unternehmen nicht abwenden kann und Gefahren, denen durch gezielte Maßnahmen entgegengewirkt werden kann. Anschließend werden in einzelnen Gruppen verschiedene Szenarien durchgespielt und konkrete Maßnahmen entwickelt.
KISS-Prinzip
K wie KISS-Prinzip
KISS ist ein Akronym und steht für „Keep It Simple and Stupid“, also „mache es so einfach wie möglich“. Da sich diese universelle Aussage auf sehr viele Bereiche und Situationen anwenden lässt, wird auch gerne vom KISS-Prinzip gesprochen. Als Prinzip rückt es die Einfachheit in den Fokus, sowohl als Mittel als auch als Ziel. Es fordert, Dinge nicht zu kompliziert zu sehen oder zu machen, und stets die einfachste Lösung für ein Problem zu suchen oder zu nutzen. In den vergangenen Jahren wurden für das Akronym alternative Interpretationen entwickelt:
- KISS = Keep It Short and Simple (“Mache es kurz und einfach“)
- KISS = Keep It Simple and Smart (“Mache es einfach und schlau)
- KISS = Keep It Simple and Straightforward (“Mache es einfach und unkompliziert“)
- KISS = Keep It Simply Stupid (“Mache es einfach idiotensicher“)
Bis heute allerdings ist nicht eindeutig beantwortet, wofür das „It“ steht. Hierbei kann es sich um unterschiedliche Anwendungsbereiche wie z. B. Produktsortiment, Projektmanagement, Reporting, Design und Entwurf, Spezifikationen und Prototypen, Hardware- und/oder Softwareentwicklung, Beschaffungsmanagement und Supply Chain oder um die Interaktion mit Kunden im Geschäftsmodell handeln.
Konservative Innovatoren
K wie Konservative Innovatoren
Konservative Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist eine hohe Ausrichtung und starke Aktivität in Forschung und Entwicklung sowie das Vorhandensein von Patenten und anderen Schutzrechten. Der Innovationsprozess ist eher klassisch organisiert und durchläuft einen Stage-Gate-Prozess. Eine ganzheitliche Ausrichtung der Unternehmenskultur auf Innovationen ist eher nicht gegeben. Gleiches gilt für die Einbindung der Mitarbeiter. In den meisten Fällen findet das Innovationsmanagement in den dafür vorgesehenen Fachabteilungen, Strukturen und Prozessen statt. Typische Branchen für konservative Innovatoren sind Chemie, Pharma, Kunststoff und Maschinenbau. Unter allen Unternehmen beträgt ihr Anteil nur knapp fünf Prozent.
→ innovative Milieus
Kooperationsorientierte Innovationsstrategie
K wie Kooperationsorientierte Innovationsstrategie
Kooperationen nehmen im strategischen Innovationsmanagement zunehmend eine wichtigere Rolle ein. Vor allem kleine und mittlere Unternehmen können in Kooperationen, Netzwerken und strategischen Partnerschaften Innovationsprojekte realisieren, zu denen sie allein nicht in der Lage wären. Da besonders die Technologieentwicklung mit hohen Kosten, Risiken und Vorlaufzeiten verbunden sind, können diese durch Kooperationen verteilt und für jeden Einzelnen reduziert werden. Kooperationsorientierte Innovationsprojekte empfehlen sich vor allem für kleine Unternehmen, die aus eigener Kraft keine Forschung und Entwicklung betreiben können. Man unterscheidet zwischen
- horizontaler Kooperation, wenn zwei Unternehmen auf gleicher Wertschöpfungsstufe zusammenarbeiten,
- vertikaler Kooperation, bei der vor- und nachgelagerte Stufen der Wertschöpfungskette einbezogen werden und
- lateraler Kooperation, bei der Unternehmen miteinander kooperieren, ohne in einer Wertschöpfungsbeziehung zueinander zu stehen oder miteinander im Wettbewerb zu stehen.
kooperative Innovatoren
K wie kooperative Innovatoren
Kooperative Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist eine starke Mitarbeiterorientierung sowie interdisziplinäre Kollaboration. Innovationen entstehen durch eine gute interne Vernetzung und das aktive Einbinden aller Mitarbeiter. Teamarbeit und Partizipation stehen dabei im Vordergrund. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gelebt. Außerdem ist der Innovationsprozess besser organisiert und strukturiert als z. B. bei den →konservativen Innovatoren, dagegen ist der Bereich Forschung und Entwicklung genauso schwach ausgebildet wie das Wissensmanagement und die Vernetzung mit der Wissenschaft. Mit rund einem Viertel aller Unternehmen stellen die kooperativen Innovatoren das größte Milieu dar.
→ innovative Milieus
KVP (kontinuierlicher Verbesserungsprozess)
K wie KVP (kontinuierlicher Verbesserungsprozess)
Der übergeordnete Begriff für den kontinuierlichen Verbesserungsprozess (KVP) ist die Prozessoptimierung und somit ein wichtiger Bestandteil des Qualitätsmanagements und/oder des Ideenmanagements. Unternehmen etablieren in der Regel einen KVP im Rahmen einer IS0 9001 Zertifizierung, um Strukturen und Prozesse im Rahmen des Audits nachweisen zu können. Ein kontinuierlicher Verbesserungsprozess sollte allerdings mehr sein: eine Grundhaltung innerhalb eines Unternehmens. Beim aktiven KVP geht es ähnlich wie bei der Six Sigma- oder KAIZEN-Methode darum, die Effizienz von Prozessen und deren kontinuierliche Verbesserung zu messen. Der KVP ist die Methode und der Weg – Prozessoptimierung das Ziel.
Im Gegensatz zur Innovation und Methoden im Innovationsmanagement, bei denen neue Produkte und Dienstleistungen entwickelt werden, Verfahren- oder Prozessentwicklungen auf technologische Weiterentwicklungen zurück zu führen sind oder neue Vertriebs- oder Geschäftsmodelle etabliert werden, geht es beim kontinuierlichen Verbesserungsprozess um die systematische Optimierung des Bestehenden und um eine Methode der kleinen Schritte. Hierfür werden Qualitätszirkel oder KVP-Teams eingerichtet, die für die vier Erfolgsfaktoren verantwortlich sind: Identifikation von Chancen, Aufbau einer Optimierungsagenda, Aktivierung von Mitarbeitern und Entwicklung von Strukturen für die Umsetzung. Deshalb müssen KVP-Teams nicht nur abteilungsübergreifend und interdisziplinär besetzt werden, sondern müssen ein nachhaltiges Engagement und die volle Unterstützung der Geschäftsleitung genießen.
L wie Lean Construction Management
L wie Lean Construction Management
Lean Construction Management steht synonym für einen agilen und schlanken Bauprozess. Es beschreibt eine Methode zur effizienteren Baustellenplanung und -organisation und fokussiert sich auf einen prozessorientierten Baustellenablauf. Hierbei wird der komplette Lebenszyklus eines Gebäudes betrachtet und das Bauprojekt von Anfang bis Ende geplant, so dass die Bauprozesse von der Planung bis zur Ausführung optimiert werden. Dabei werden Pläne und Planungen so effizient wie möglich ausgearbeitet und zugleich auch nur so detailliert wie nötig. Lean Construction Management sieht dabei vor, die Planung während der Bauausführung kontinuierlich weiterzuentwickeln und zu verbessern. Dabei werden alle Ressourcen berücksichtigt, sowohl der Einsatz von Material und Zeit als auch von Arbeitskräften. Infolgedessen wird die Verschwendung von Ressourcen vermieden, Prozessstandards geschaffen und optimiert, Kosten reduziert bei gleichbleibender Qualität und somit eine größtmögliche Effizienz und Wertschöpfung für das Bauprojekt generiert. Mehrere Studien belegen, dass die Anwendung von Lean Construction Management ein Bauprojekt um 30 Prozent beschleunigen und die Kosten zwischen 20 und 25 Prozent reduzieren kann. Zumal die Produktivitätssteigerungen im Bauwesen im Vergleich zu anderen Branchen deutlich zurückhängt. Ein vielversprechender Ansatz zur Unterstützung dieser Methode ist →BIM (Building Information Modeling) und/oder das Last Planner System. Letzteres ist eine spezielle Projektmanagement-Methode, mit der die Lean-Prinzipien optimal in die Praxis umgesetzt werden können. Transparenz und Übersicht bringen Klarheit und lassen gleichzeitig Abhängigkeiten untereinander und Probleme rechtzeitig erkennen. Somit kann in den laufenden Bauprozess ein kontinuierlicher Verbesserungsprozess etabliert werden. Was bei größeren Bauprojekten seit Mitte der 1990-er Jahre zunehmend zum Einsatz kommt, soll zukünftig auch für kleinere Bauvorhaben genutzt werden. Allerdings ist Lean Construction Management in kleinen Unternehmen und/oder kleineren Baustellen noch nicht verbreitet. In der praktischen Umsetzung gestaltet es sich schwierig, die vielen verschiedenen beteiligten Gewerke von diesem Ansatz zu überzeugen. Denn dies bedeutet zugleich, dass alle Gewerke ihren eigenen bekannten Ablauf in den Hintergrund stellen müssen.
L wie Lean Development
Lean Development ist die Anwendung des Lean-Management-Konzepts „Lean Production“ auf den Produktentstehungsprozess. Erfolgt dies bei dem der Produktion direkt vorgelagerten Kernprozess der Produktentstehung spricht man von Lean Development. Dies hat in Unternehmen allerdings zu mehr geführt als nur einer hoch effizienten Produktion und schlanken Prozessen. Die konsequente Anwendung von Lean Production stellt nicht nur ein singuläres Produktionssystem dar, sondern führt zwangsläufig zu einer anderen Unternehmenskultur, über den Bereich der klassischen Produktion hinaus. Dies betrifft sowohl die traditionelle (vertikale) Wertschöpfungskette im Unternehmen bzw. idealerweise den gesamten Produktlebenszyklus von der Beschaffung des Rohstoffs über die Produktion und die Supply Chain zum Kunden bis zum Recycling. Eine schlanke Unternehmenskultur kann auch traditionelle Organisationsfelder wie Forschung und Entwicklung, Innovationsmanagement, Beschaffungsmanagement oder Beschwerdemanagement und dgl. betreffen und auf ein in sich geschlossenes gemeinsames Fundament gestellt werden.
Lean Management baut auf fünf Leitprinzipien auf:
- Wert: den Wert des Produktes präzise spezifizieren oder besser den Mehrwert aus Kundensicht definieren
- Wertstrom: den Wertstrom erkennen (Prozessoptimierung)
- Flow: einen Wertstromfluss ohne Unterbrechungen erzeugen
- Pull: den Kunden den Takt der Bearbeitung bestimmen lassen
- Perfektion: die Dinge kontinuierlich verbessern (Kaizen, KVP)
Vereinfacht ausgedrückt fokussiert sich Lean Development darauf, Strukturen, Prozesse und Werkzeuge auf Unnötiges („Verschwendung“ = jap. Muda) zu untersuchen und die identifizierten Schwachpunkte und deren Verschwendungsursachen durch Gegenmaßnahmen abzustellen. Lean Development ist im Kern auf die Erkenntnis zurück zu führen, dass die gleichen Gestaltungsprinzipien, die zu schlanken Produktionen führen, auch auf die Entwicklung von Produkten und Innovationen anwendbar sind und dort zu einem effizienten („die Dinge richtig machen“) und effektiven („die richtigen Dinge machen“) Prozess führen. Somit bietet Lean Development eine enorme Hebelwirkung und das Potenzial für einen nachhaltigen Wettbewerbsvorteil.
Aus dem Lean Development wurde 2003 das Lean Software Development (LSD) abgeleitet. Dieses umfasst sieben Prinzipien:
- Verschwendung vermeiden
- Lernen der Beteiligten unterstützen
- Entscheidungen möglich spät treffen
- Produkte möglichst früh ausliefern
- Verantwortung an die Beteiligten übertragen
- Integrität der Technik und der Benutzung berücksichtigen
- den Gesamtprozess als Summe aller internen und externen Faktoren nicht aus dem Blick verlieren
Heute finden diese Prinzipien ihre Anwendung in agilen Methoden.
Die Lean-Prinzipien werden mittlerweile auch im Business Development angewendet. Als Lean Business Development unterscheidet es sich vom klassischen Business durch schnellere, iterative und damit agilere Prozesse. Grundprinzipien des Lean Business Development sind: Ausrichtung aller Tätigkeiten auf den Kunden (Customer Centricity), Konzentration auf Kernkompetenzen, Optimierung von Geschäftsprozessen im Hinblick auf den Kundennutzen (Value Proposition), ständige Verbesserung der Qualität (KVP), Orientierung an den „internen Kunden“ (Businesspartner), Eigenverantwortung der Mitarbeiter und Teams (Empowerment), dezentrale, kundenorientierte Strukturen, Führen als Service am Mitarbeiter (Leadership), offene Informations- und Feedback-Prozesse (Fehlerkultur) sowie Einstellungs- und Kulturwandel im Unternehmen (Kaikaku).
L wie LEED
LEED ist ein Akronym für Leadership in Energy and Environmental Design und ist ein amerikanisches Gütesiegel für →Green Building, das vom U.S. Green Building Council entwickelt wurde. Auch wenn LEED vorrangig für den amerikanischen Markt entwickelt wurde, hat es sich als internationales Zertifikat für →nachhaltiges Bauen etabliert und hält langsam Einzug in den europäischen und deutschen Bau- und Immobiliensektor. Das Bewertungssystem definiert Anforderungen und legt Standards für den Bau von umweltverträglichen Gebäuden mit einem nachhaltigen, selbstversorgenden Energiebetrieb fest. Außerdem sollen Gebäude mit einem LEED-Zertifikat auf Grundlage eines Entsorgungsplans errichtet werden, der ein vermindertes Abfallaufkommen und die Verwendung von recycelten oder vor Ort hergestellten Materialien vorsieht. Durch die optimale Nutzung von erneuerbaren Energien sowie lokalen Energiequellen kann die Energieeffizienz von Gebäuden deutlich verbessert werden. Ähnlich wie bei der →DGNB unterscheidet auch das LEED-Zertifikat in die Qualitätsstufen Certified, Silver, Gold und Platinum.
L wie Location-Based-Services (LBS)
Location-Based-Services (LBS) kombinieren die Position eines mobilen Devices mit zusätzlichen Informationen und digitalen Services, um einen Mehrwert für den Nutzer zu schaffen. Diese Mehrwerte können z. B. aktuelle Angebote in der näheren Umgebung sein (Point of Interest wie z. B. die Lokalisierung von Restaurants, Tankstellen oder Sehenswürdigkeiten usw.) oder maßgeschneiderte, individuelle Informationen, die für die Nutzung eines Services notwendig sind (wie z. B. die Wetterdaten bei der intelligenten Verpackung von Baustoffen oder regionale Angebote von Baustoffhändlern usw.). Eine Abwandlung dieser Technologie mit der Ergänzung um so genannte Beacons (oder ähnlich funktionierende Technologien) stellt die Navigation in Innenräumen dar. Bei Location-Based-Services werden drei Technologien miteinander verknüpft: New Information and Communication Technologies (NICTS), denen mobile Telekommunikationsstandards und Endgeräte zugeordnet werden, das Internet (IoT) und die bereits erwähnten Geoinformationssysteme (GEO-ID-Daten). Dank der Konvergenz der Technologien vereinen Location Based Services die Grundfunktion der Geoinformationssysteme, mit denen Geodaten erfasst, gespeichert und weiter verarbeitet werden zu neuen Daten und Services. Um standortbezogene Dienste nutzen zu können, sind verschiedene Komponenten zur Lokalisierung notwendig. Zu ihnen zählen neben den mobilen Devices, die aufgrund aktueller Technologie den relevanten Transmitter darstellen, auch GPS- und Drahtlos-Technologien wie z. B. Wireless Local Area Network (WLAN), Near Field Communication (NFC), Bluetooth und Infrarot. Bei Location-Based Services unterscheidet man zwischen reaktiven Diensten, bei denen der Nutzer eine bestimmte Information direkt anfordert (Pull-Services) und proaktiven Diensten, bei denen allgemeine Informationen rund um den Standort aktiv übermittelt werden (Push-Services).
Lean Construction Management
L wie Lean Construction Management
Lean Construction Management steht synonym für einen agilen und schlanken Bauprozess. Es beschreibt eine Methode zur effizienteren Baustellenplanung und -organisation und fokussiert sich auf einen prozessorientierten Baustellenablauf. Hierbei wird der komplette Lebenszyklus eines Gebäudes betrachtet und das Bauprojekt von Anfang bis Ende geplant, so dass die Bauprozesse von der Planung bis zur Ausführung optimiert werden. Dabei werden Pläne und Planungen so effizient wie möglich ausgearbeitet und zugleich auch nur so detailliert wie nötig. Lean Construction Management sieht dabei vor, die Planung während der Bauausführung kontinuierlich weiterzuentwickeln und zu verbessern. Dabei werden alle Ressourcen berücksichtigt, sowohl der Einsatz von Material und Zeit als auch von Arbeitskräften. Infolgedessen wird die Verschwendung von Ressourcen vermieden, Prozessstandards geschaffen und optimiert, Kosten reduziert bei gleichbleibender Qualität und somit eine größtmögliche Effizienz und Wertschöpfung für das Bauprojekt generiert. Mehrere Studien belegen, dass die Anwendung von Lean Construction Management ein Bauprojekt um 30 Prozent beschleunigen und die Kosten zwischen 20 und 25 Prozent reduzieren kann. Zumal die Produktivitätssteigerungen im Bauwesen im Vergleich zu anderen Branchen deutlich zurückhängt. Ein vielversprechender Ansatz zur Unterstützung dieser Methode ist →BIM (Building Information Modeling) und/oder das Last Planner System. Letzteres ist eine spezielle Projektmanagement-Methode, mit der die Lean-Prinzipien optimal in die Praxis umgesetzt werden können. Transparenz und Übersicht bringen Klarheit und lassen gleichzeitig Abhängigkeiten untereinander und Probleme rechtzeitig erkennen. Somit kann in den laufenden Bauprozess ein kontinuierlicher Verbesserungsprozess etabliert werden. Was bei größeren Bauprojekten seit Mitte der 1990-er Jahre zunehmend zum Einsatz kommt, soll zukünftig auch für kleinere Bauvorhaben genutzt werden. Allerdings ist Lean Construction Management in kleinen Unternehmen und/oder kleineren Baustellen noch nicht verbreitet. In der praktischen Umsetzung gestaltet es sich schwierig, die vielen verschiedenen beteiligten Gewerke von diesem Ansatz zu überzeugen. Denn dies bedeutet zugleich, dass alle Gewerke ihren eigenen bekannten Ablauf in den Hintergrund stellen müssen.
Lean Development
L wie Lean Development
Lean Development ist die Anwendung des Lean-Management-Konzepts „Lean Production“ auf den Produktentstehungsprozess. Erfolgt dies bei dem der Produktion direkt vorgelagerten Kernprozess der Produktentstehung spricht man von Lean Development. Dies hat in Unternehmen allerdings zu mehr geführt als nur einer hoch effizienten Produktion und schlanken Prozessen. Die konsequente Anwendung von Lean Production stellt nicht nur ein singuläres Produktionssystem dar, sondern führt zwangsläufig zu einer anderen Unternehmenskultur, über den Bereich der klassischen Produktion hinaus. Dies betrifft sowohl die traditionelle (vertikale) Wertschöpfungskette im Unternehmen bzw. idealerweise den gesamten Produktlebenszyklus von der Beschaffung des Rohstoffs über die Produktion und die Supply Chain zum Kunden bis zum Recycling. Eine schlanke Unternehmenskultur kann auch traditionelle Organisationsfelder wie Forschung und Entwicklung, Innovationsmanagement, Beschaffungsmanagement oder Beschwerdemanagement und dgl. betreffen und auf ein in sich geschlossenes gemeinsames Fundament gestellt werden.
Lean Management baut auf fünf Leitprinzipien auf:
- Wert: den Wert des Produktes präzise spezifizieren oder besser den Mehrwert aus Kundensicht definieren
- Wertstrom: den Wertstrom erkennen (Prozessoptimierung)
- Flow: einen Wertstromfluss ohne Unterbrechungen erzeugen
- Pull: den Kunden den Takt der Bearbeitung bestimmen lassen
- Perfektion: die Dinge kontinuierlich verbessern (Kaizen, KVP)
Vereinfacht ausgedrückt fokussiert sich Lean Development darauf, Strukturen, Prozesse und Werkzeuge auf Unnötiges („Verschwendung“ = jap. Muda) zu untersuchen und die identifizierten Schwachpunkte und deren Verschwendungsursachen durch Gegenmaßnahmen abzustellen. Lean Development ist im Kern auf die Erkenntnis zurück zu führen, dass die gleichen Gestaltungsprinzipien, die zu schlanken Produktionen führen, auch auf die Entwicklung von Produkten und Innovationen anwendbar sind und dort zu einem effizienten („die Dinge richtig machen“) und effektiven („die richtigen Dinge machen“) Prozess führen. Somit bietet Lean Development eine enorme Hebelwirkung und das Potenzial für einen nachhaltigen Wettbewerbsvorteil.
Aus dem Lean Development wurde 2003 das Lean Software Development (LSD) abgeleitet. Dieses umfasst sieben Prinzipien:
- Verschwendung vermeiden
- Lernen der Beteiligten unterstützen
- Entscheidungen möglich spät treffen
- Produkte möglichst früh ausliefern
- Verantwortung an die Beteiligten übertragen
- Integrität der Technik und der Benutzung berücksichtigen
- den Gesamtprozess als Summe aller internen und externen Faktoren nicht aus dem Blick verlieren
Heute finden diese Prinzipien ihre Anwendung in agilen Methoden.
Die Lean-Prinzipien werden mittlerweile auch im Business Development angewendet. Als Lean Business Development unterscheidet es sich vom klassischen Business durch schnellere, iterative und damit agilere Prozesse. Grundprinzipien des Lean Business Development sind: Ausrichtung aller Tätigkeiten auf den Kunden (Customer Centricity), Konzentration auf Kernkompetenzen, Optimierung von Geschäftsprozessen im Hinblick auf den Kundennutzen (Value Proposition), ständige Verbesserung der Qualität (KVP), Orientierung an den „internen Kunden“ (Businesspartner), Eigenverantwortung der Mitarbeiter und Teams (Empowerment), dezentrale, kundenorientierte Strukturen, Führen als Service am Mitarbeiter (Leadership), offene Informations- und Feedback-Prozesse (Fehlerkultur) sowie Einstellungs- und Kulturwandel im Unternehmen (Kaikaku).
LEED
L wie LEED
LEED ist ein Akronym für Leadership in Energy and Environmental Design und ist ein amerikanisches Gütesiegel für →Green Building, das vom U.S. Green Building Council entwickelt wurde. Auch wenn LEED vorrangig für den amerikanischen Markt entwickelt wurde, hat es sich als internationales Zertifikat für →nachhaltiges Bauen etabliert und hält langsam Einzug in den europäischen und deutschen Bau- und Immobiliensektor. Das Bewertungssystem definiert Anforderungen und legt Standards für den Bau von umweltverträglichen Gebäuden mit einem nachhaltigen, selbstversorgenden Energiebetrieb fest. Außerdem sollen Gebäude mit einem LEED-Zertifikat auf Grundlage eines Entsorgungsplans errichtet werden, der ein vermindertes Abfallaufkommen und die Verwendung von recycelten oder vor Ort hergestellten Materialien vorsieht. Durch die optimale Nutzung von erneuerbaren Energien sowie lokalen Energiequellen kann die Energieeffizienz von Gebäuden deutlich verbessert werden. Ähnlich wie bei der →DGNB unterscheidet auch das LEED-Zertifikat in die Qualitätsstufen Certified, Silver, Gold und Platinum.
Location-Based-Services (LBS)
L wie Location-Based-Services (LBS)
Location-Based-Services (LBS) kombinieren die Position eines mobilen Devices mit zusätzlichen Informationen und digitalen Services, um einen Mehrwert für den Nutzer zu schaffen. Diese Mehrwerte können z. B. aktuelle Angebote in der näheren Umgebung sein (Point of Interest wie z. B. die Lokalisierung von Restaurants, Tankstellen oder Sehenswürdigkeiten usw.) oder maßgeschneiderte, individuelle Informationen, die für die Nutzung eines Services notwendig sind (wie z. B. die Wetterdaten bei der intelligenten Verpackung von Baustoffen oder regionale Angebote von Baustoffhändlern usw.). Eine Abwandlung dieser Technologie mit der Ergänzung um so genannte Beacons (oder ähnlich funktionierende Technologien) stellt die Navigation in Innenräumen dar. Bei Location-Based-Services werden drei Technologien miteinander verknüpft: New Information and Communication Technologies (NICTS), denen mobile Telekommunikationsstandards und Endgeräte zugeordnet werden, das Internet (IoT) und die bereits erwähnten Geoinformationssysteme (GEO-ID-Daten). Dank der Konvergenz der Technologien vereinen Location Based Services die Grundfunktion der Geoinformationssysteme, mit denen Geodaten erfasst, gespeichert und weiter verarbeitet werden zu neuen Daten und Services. Um standortbezogene Dienste nutzen zu können, sind verschiedene Komponenten zur Lokalisierung notwendig. Zu ihnen zählen neben den mobilen Devices, die aufgrund aktueller Technologie den relevanten Transmitter darstellen, auch GPS- und Drahtlos-Technologien wie z. B. Wireless Local Area Network (WLAN), Near Field Communication (NFC), Bluetooth und Infrarot. Bei Location-Based Services unterscheidet man zwischen reaktiven Diensten, bei denen der Nutzer eine bestimmte Information direkt anfordert (Pull-Services) und proaktiven Diensten, bei denen allgemeine Informationen rund um den Standort aktiv übermittelt werden (Push-Services).
M wie Megatrends
M wie Megatrends
Megatrends gelten als Frühwarnsystem für Veränderungen und Innovationen. Megatrends stehen für große Transformationsbewegungen, die über Jahrzehnte etablierte und bewährte Ordnungen, Strukturen und Muster in Frage stellen, diese in ihren Grundfesten erschüttern und schließlich neu sortieren. Megatrends sind die großen Treiber in Gesellschaft, Politik und Wirtschaft. Ihr Wirken ist gekennzeichnet über einen längeren Zeitraum mit Auswirkungen auf alle Bereiche des täglichen Lebens und tiefgreifenden Veränderungen. An folgenden Merkmalen lässt sich ein Megatrend identifizieren:
- Megatrends zeichnet aus, dass sie ausnahmslos in allen Bereichen wie Gesellschaft, Politik und Wirtschaft ihren Einfluss ausüben.
- Megatrends dürfen nicht mit kurzfristigen Moden oder Hypes verwechselt werden. Megatrends wirken grundsätzlich über Jahrzehnte hinweg. Ihre Wirkung und Dauer erstreckt sich über einen Zeitraum von 30 bis 50 Jahren.
- Megatrends verlaufen komplex und niemals linear und eindimensional. Das heißt, dass ein Megatrend durchaus gegenläufige Tendenzen aufweisen kann, die dem Hauptstrang der Entwicklung aber nur auf den ersten Blick zu widersprechen scheinen.
Zu den Megatrends gehören:
- Globalisierung
- demografischer Wandel
- Urbanisierung
- Gesundheit
- Nachhaltigkeit
- Digitalisierung
Am Megatrend Digitalisierung soll dies beispielhaft erklärt werden. Die Digitalisierung fliegt in einem rasanten Tempo durch Gesellschaft und Wirtschaft und verändert alle Bereiche der Arbeit, des Wohnens, der Mobilität und natürlich das Konsumverhalten. Am stärksten zu spüren ist dies an der Art und Weise der Kommunikation. In jedem Moment des Alltags findet derzeit eine digitale Transformation statt. Als markantes Merkmal dieser Entwicklung gilt, dass vieles von dem, was vor Jahren noch als unvorstellbar oder Utopie oder futuristische Spinnerei abgehandelt wurde, bereits heute digitale Realität geworden ist. Teppiche, die um Hilfe rufen, wenn jemand gestürzt ist, Kühlschränke, die sich melden, wenn bestimmte Lebensmittel zur Neige gehen oder Fitness-Tracker, die anzeigen, wie viel sich der Mensch bewegen muss, um gesünder zu leben, sind nur eine kleine Auswahl dieser Beispiele.
Auch die Arbeits- und Wirtschaftswelt kann sich dem Megatrend der Digitalisierung nicht entziehen. Industrie 4.0, das „Internet der Dinge“, Big Data, künstliche Intelligenz, Augmented Reality oder Virtual Reality und Robotik etc. sind nur einige der vielen Schlagwörter und großen Herausforderungen, die im digitalen Zeitalter auf Unternehmen und jeden Einzelnen zukommen. Die Wirtschaft steht schon seit Jahren an der Schwelle zur vierten industriellen Revolution und damit vor einem gewinnbringenden Evolutionssprung in der industriellen Fertigung. Industrie 4.0 schafft, aufbauend auf alten Strukturen, neue Verknüpfungen zwischen der Produktion vor Ort und den Konstruktionen, Kalkulationen und Simulationen im Computer. Weltweit haben Unternehmen mit dem Internet der Dinge im Jahr 2021 knapp 3 Billionen US-Dollar verdient. Durch die Umstellung auf das Internetprotokoll IPv6 hat sich die Zahl der verfügbaren Internetadressen von 4,3 Milliarden auf 340 Sextillionen erhöht – eine Zahl mit 36 Nullen, die synonym für die Unvorstellbarkeit der digitalen Transformation steht. Produkte, Maschinen und sonstige Dinge jeglicher Art können seitdem ein eigenes Leben als Datenproduzent führen. Neben den bekannten Computern und Mobile Devices können nun auch Autos, Fernseher, Kühlschränke, Waschmaschinen und selbst Kleidungsstücke miteinander Daten austauschen oder diese generieren.
Der Megatrend Digitalisierung wird auch die Kommunikation von Menschen mit digitalen Geräten verändern. Neben digitalen Sprachassistenten, die eine direkte Interaktion in der Schnittstelle zwischen Mensch und Maschine darstellen, verändern auch z. B. Wearables den Alltag. Diese tragbaren Minicomputer, getarnt als Uhr, Armband, Brille usw. sind ständige Begleiter und ermöglichen ganz neue Erlebnisse. So können z. B. Football-Fans mit dem Alert-Shirt den Nervenkitzel eines Spiels hautnah miterleben. Hautnah ist hierbei wörtlich zu nehmen, da dieses vibrierende Shirt die Gefühle der Spieler live und in Echtzeit direkt an eine App überträgt, die diese in Impulse umwandelt und auf die Shirts der Zuschauer überträgt. Fans sollen somit nachempfinden können, wie ein Spieler sich vor dem entscheidenden Kick fühlt oder enttäuscht ist, wenn ein Spiel verloren geht.
M wie Mixed Reality (MR)
Während →Virtual Reality und →Augmented Reality mittlerweile recht bekannt sind, taucht mit Mixed Reality (MR) immer öfter ein dritter Begriff auf. Es handelt sich um eine Mischung aus VR und AR und auch bei den MR-Brillen wird unterschieden, ob als Grundlage die reelle Welt genommen wird oder denen, die auf einem komplett digitalen Bild basieren. Bei Mixed Reality basierend auf der realen Welt werden digitale Objekte überblendet. Diese virtuell hinzu gefügten Objekte werden in einem realen dreidimensionalen Umfeld integriert, so dass im Ergebnis reale und virtuelle Welten verschmelzen. Dadurch kann der Nutzer diese virtuellen Objekte nicht nur sehen, sondern mit ihnen in dem dreidimensionalen Raum auch interagieren. Dagegen blendet Mixed Reality in der virtuellen Welt die reale Außenwelt für den Nutzer komplett aus. Auch wenn sich diese Variante wie Virtual Reality anhört, gibt es einen gravierenden Unterschied. Während VR nur in der virtuellen Welt stattfindet und sich nicht an der realen Welt orientiert, wird bei MR jeder Schritt und jede Handbewegung in die computergenerierte Welt übertragen. Mixed Reality geht somit einen Schritt weiter und lässt den Nutzer sich frei bewegen, so dass die Bewegungsfreiheit nur durch die reale Umgebung eingeschränkt wird.
M wie Monadischer Test
→A/B-Testing
M wie Morphologischer Kasten
Der morphologische Kasten ist eine systematisch heuristische Kreativitätstechnik und wird nach seinem Entwickler, dem Schweizer Astrophysiker Fritz Zwicky, auch als Zwicky-Box bezeichnet. Die Methode zielt darauf ab, zu einem konkreten Problem mögliche Lösungen und deren Variationen und Kombinationen zu untersuchen. Die hierfür entwickelte mehrdimensionale Matrix bildet das Kernstück der morphologischen Analyse. Mit dieser wird ein ganzheitlicher Ansatz zur systematischen Lösung einer Aufgabe, eines Problems oder Herausforderung verfolgt. Dieses wird zunächst vorurteilslos in seine einzelnen Merkmale (auch als Attribute, Faktoren, Parameter, Dimensionen bezeichnet) zerlegt und die jeweils verschiedenen Ausprägungen identifiziert oder generiert und anschließend wieder neu kombiniert und zusammengesetzt. Dabei kann entweder nach der besten Lösung oder nach verschiedenen Alternativen zur Lösungsfindung gesucht werden. Die bestimmenden Merkmale werden untereinander aufgeschrieben. Anschließend werden alle möglichen Ausprägungen des jeweiligen Merkmals rechts daneben geschrieben. So entsteht eine Matrix, in der jede Kombination von Ausprägungen aller Merkmale eine theoretisch mögliche Lösung ist. Danach wird aus jeder Zeile eine Ausprägung des Merkmals gewählt, wodurch eine Kombination von Ausprägungen entsteht. Dies kann entweder systematisch oder intuitiv erfolgen. Dieser Prozess wird mehrmals wiederholt, so dass mit den entstandenen Kombinationen von Ausprägungen Ideen entwickelt werden.
Der morphologische Kastens wird insbesondere dann angewendet, wenn komplexe und multidimensionale Probleme analysiert werden müssen. Dies können z. B. Strategieentwicklung, Produktentwicklung, Projektmanagement oder Risikomanagement sein. Das größte Potenzial entwickelt der morphologische Kasten, wenn die Gruppe heterogen und interdisziplinär zusammen gesetzt ist und unterschiedliche Perspektiven bei der Analyse und der Lösungsfindung aufeinander treffen. Für die Entwicklung von radikalen oder disruptiven Innovationen eignet sich die Methode nicht, weil die Möglichkeiten durch die gewählten Dimensionen der Matrix von vornherein limitiert sind.
M wie MoSCoW-Prinzip
Das MoSCoW-Prinzip beschreibt eine vierstufige Methode zur Kategorisierung von Zielen, Anforderungen und/oder deren Priorisierung. Als Erfinder gilt Dai Clegg, der die Methode 1994 bei Oracle erstmals im Rahmen der so genannten Dynamic Systems Development Method vorstellte. Heute wird das MoSCoW-Prinzip u. a. in der Business Analyse, im Requirements Engineering, im Projektmanagement und in der Softwareentwicklung verwendet. Die einzelnen, großgeschriebenen Buchstaben stehen für vier Kategorien:
- M = Must (have)
- S = Should (have)
- C = Could (have)
- W = Won’t (have)
Die kleingeschriebenen Buchstaben dazwischen dienen lediglich der Lesbarkeit. Werden diese als „oder“ bzw. „or“ verstanden, entstehen zwei sich gegenüberstehende Kategorien, also Must or Should sowie Could or Would bzw. Won’t. Must (have) ist die Kategorie für die „Muss“-Anforderungen und gilt als nicht verhandelbar. Daher sollte sie nicht im Widerspruch zu anderen Muss-Anforderungen stehen. Should (have) ist die Kategorie für die „Soll“-Anforderungen. Idealerweise sollten Anforderungen, die in dieser Kategorie landen, ebenfalls umgesetzt werden. Could (have) ist die Kategorie für die „Kann“-Anforderungen. Sie können umgesetzt werden, nachdem die „Muss“- und „Soll“-Anforderungen umgesetzt wurden. Sie werden daher auch als „nice to have“ bezeichnet und bei zeitlichen Engpässen oder Ressourcenkonflikten als erstes verschoben bzw. nicht realisiert. Won’t (have) ist die Kategorie, die nicht umgesetzt werden. Alternativ wird das W auch als Would (wäre schön, wenn es demnächst umgesetzt werden könnte) oder Want (wird gewünscht, aber in einem anderen Vorhaben, Projekt oder Release) interpretiert. Die „Muss“- als auch „Soll“-Anforderungen werden im Lastenheft oder Business Cases dokumentiert. „Kann“-Anforderungen und nicht umzusetzende Anforderungen verbleiben dagegen in der Regel in internen →Backlogs und dgl.
M wie Münchberger Modell
Das Münchberger Modell erweitert das →Double-Diamond-Modell aus dem klassischen Service Design Prozess um einen fünften Schritt – um die „Design-Umsetzungs-Phase“. Denn das herkömmliche Modell führt nur eine intensive Recherche mit anschließender Interpretation und Verdichtung der Ergebnisse durch. Nach der Ideenfindungs- und Konzeptionsphase sowie der anschließenden Test- und Optimierungsphase endet das Modell. Es ist als Konzeptionsvorlage hervorragend geeignet, lässt aber eine konkrete Anleitung für die operative Umsetzung vermissen. Diesen Punkt ergänzt das Münchberger Modell und ergänzt den Service Design Prozess um diese 5. Phase.
M wie MVP
MVP ist die englische Abkürzung für Minimum Viable Product und wird wörtlich übersetzt mit einem „minimal brauchbaren oder existenzfähigen Produkt“. Damit beschreibt der MVP die erste minimal funktionsfähige Iteration eines Produktes, die dazu dient, möglichst schnell aus dem Feedback der Nutzer zu lernen und somit Fehlentwicklungen an den Bedürfnissen, Anforderungen und Wünschen der späteren Nutzer vorbei zu verhindern. Das schnell und einfach erstellte „Produkt“ wird nur mit den nötigsten Kernfunktionen ausgestattet. Dennoch sollte die Iteration einen ersten „brauchbaren“ Nutzen bieten, damit die Nutzer das Produkt auch einsetzen. Das Feedback wird dazu genutzt, um das MVP step by step (iterativ) zu erweitern und zu verbessern. Das Ziel dieser Strategie ist die Vermeidung von Produkten, die Kunden nicht brauchen.
Der Begriff des MVP hat seinen Ursprung im Lean-Startup-Gedanken und wurde Anfang der 2000-er Jahre geprägt. Er beschreibt die Entwicklung eines neuen Produktes oder Services nach dem Design-Thinking-Prozess oder dem Customer-Co-Creation-Prozess. Somit entsteht nicht nur eine Neuentwicklung, sondern wurde in einer frühen Phase auch schon der Bedarf und die Bedürfnisse, Wünsche und Anforderungen aus Kundenperspektive und Marktrelevanz geklärt. Der MVP ist somit eine frühe Veröffentlichung eines Produkts oder eines Services in seinem minimalst möglichen Funktionsumfang und darf nicht mit der Entwicklung „minimalistischer“ Produkte verwechselt werden.
Synonym werden auch Begriffe wie z. B. das „Minimum Viable Team“ verwendet, das für minimale Human Resources mit allen nötigen Kompetenzen steht, um das MVP zu verwirklichen oder z. B. „Minimum Marketable Product (MMP)“, wobei Letzteres eher die Weiterentwicklung aus dem MVP beschreibt. Während der MVP z. B. ein Mockup sein könnte, wäre der MMP z. B. ein Click-Dummy. Andere Vergleiche sehen einen MVP z. B. in einem exklusiven Austausch mit ausgewählten Schlüsselkunden und einen MMP in einem regionalen Testmarkt.
Megatrends
M wie Megatrends
Megatrends gelten als Frühwarnsystem für Veränderungen und Innovationen. Megatrends stehen für große Transformationsbewegungen, die über Jahrzehnte etablierte und bewährte Ordnungen, Strukturen und Muster in Frage stellen, diese in ihren Grundfesten erschüttern und schließlich neu sortieren. Megatrends sind die großen Treiber in Gesellschaft, Politik und Wirtschaft. Ihr Wirken ist gekennzeichnet über einen längeren Zeitraum mit Auswirkungen auf alle Bereiche des täglichen Lebens und tiefgreifenden Veränderungen. An folgenden Merkmalen lässt sich ein Megatrend identifizieren:
- Megatrends zeichnet aus, dass sie ausnahmslos in allen Bereichen wie Gesellschaft, Politik und Wirtschaft ihren Einfluss ausüben.
- Megatrends dürfen nicht mit kurzfristigen Moden oder Hypes verwechselt werden. Megatrends wirken grundsätzlich über Jahrzehnte hinweg. Ihre Wirkung und Dauer erstreckt sich über einen Zeitraum von 30 bis 50 Jahren.
- Megatrends verlaufen komplex und niemals linear und eindimensional. Das heißt, dass ein Megatrend durchaus gegenläufige Tendenzen aufweisen kann, die dem Hauptstrang der Entwicklung aber nur auf den ersten Blick zu widersprechen scheinen.
Zu den Megatrends gehören:
- Globalisierung
- demografischer Wandel
- Urbanisierung
- Gesundheit
- Nachhaltigkeit
- Digitalisierung
Am Megatrend Digitalisierung soll dies beispielhaft erklärt werden. Die Digitalisierung fliegt in einem rasanten Tempo durch Gesellschaft und Wirtschaft und verändert alle Bereiche der Arbeit, des Wohnens, der Mobilität und natürlich das Konsumverhalten. Am stärksten zu spüren ist dies an der Art und Weise der Kommunikation. In jedem Moment des Alltags findet derzeit eine digitale Transformation statt. Als markantes Merkmal dieser Entwicklung gilt, dass vieles von dem, was vor Jahren noch als unvorstellbar oder Utopie oder futuristische Spinnerei abgehandelt wurde, bereits heute digitale Realität geworden ist. Teppiche, die um Hilfe rufen, wenn jemand gestürzt ist, Kühlschränke, die sich melden, wenn bestimmte Lebensmittel zur Neige gehen oder Fitness-Tracker, die anzeigen, wie viel sich der Mensch bewegen muss, um gesünder zu leben, sind nur eine kleine Auswahl dieser Beispiele.
Auch die Arbeits- und Wirtschaftswelt kann sich dem Megatrend der Digitalisierung nicht entziehen. Industrie 4.0, das „Internet der Dinge“, Big Data, künstliche Intelligenz, Augmented Reality oder Virtual Reality und Robotik etc. sind nur einige der vielen Schlagwörter und großen Herausforderungen, die im digitalen Zeitalter auf Unternehmen und jeden Einzelnen zukommen. Die Wirtschaft steht schon seit Jahren an der Schwelle zur vierten industriellen Revolution und damit vor einem gewinnbringenden Evolutionssprung in der industriellen Fertigung. Industrie 4.0 schafft, aufbauend auf alten Strukturen, neue Verknüpfungen zwischen der Produktion vor Ort und den Konstruktionen, Kalkulationen und Simulationen im Computer. Weltweit haben Unternehmen mit dem Internet der Dinge im Jahr 2021 knapp 3 Billionen US-Dollar verdient. Durch die Umstellung auf das Internetprotokoll IPv6 hat sich die Zahl der verfügbaren Internetadressen von 4,3 Milliarden auf 340 Sextillionen erhöht – eine Zahl mit 36 Nullen, die synonym für die Unvorstellbarkeit der digitalen Transformation steht. Produkte, Maschinen und sonstige Dinge jeglicher Art können seitdem ein eigenes Leben als Datenproduzent führen. Neben den bekannten Computern und Mobile Devices können nun auch Autos, Fernseher, Kühlschränke, Waschmaschinen und selbst Kleidungsstücke miteinander Daten austauschen oder diese generieren.
Der Megatrend Digitalisierung wird auch die Kommunikation von Menschen mit digitalen Geräten verändern. Neben digitalen Sprachassistenten, die eine direkte Interaktion in der Schnittstelle zwischen Mensch und Maschine darstellen, verändern auch z. B. Wearables den Alltag. Diese tragbaren Minicomputer, getarnt als Uhr, Armband, Brille usw. sind ständige Begleiter und ermöglichen ganz neue Erlebnisse. So können z. B. Football-Fans mit dem Alert-Shirt den Nervenkitzel eines Spiels hautnah miterleben. Hautnah ist hierbei wörtlich zu nehmen, da dieses vibrierende Shirt die Gefühle der Spieler live und in Echtzeit direkt an eine App überträgt, die diese in Impulse umwandelt und auf die Shirts der Zuschauer überträgt. Fans sollen somit nachempfinden können, wie ein Spieler sich vor dem entscheidenden Kick fühlt oder enttäuscht ist, wenn ein Spiel verloren geht.
Mixed Reality (MR)
M wie Mixed Reality (MR)
Während →Virtual Reality und →Augmented Reality mittlerweile recht bekannt sind, taucht mit Mixed Reality (MR) immer öfter ein dritter Begriff auf. Es handelt sich um eine Mischung aus VR und AR und auch bei den MR-Brillen wird unterschieden, ob als Grundlage die reelle Welt genommen wird oder denen, die auf einem komplett digitalen Bild basieren. Bei Mixed Reality basierend auf der realen Welt werden digitale Objekte überblendet. Diese virtuell hinzu gefügten Objekte werden in einem realen dreidimensionalen Umfeld integriert, so dass im Ergebnis reale und virtuelle Welten verschmelzen. Dadurch kann der Nutzer diese virtuellen Objekte nicht nur sehen, sondern mit ihnen in dem dreidimensionalen Raum auch interagieren. Dagegen blendet Mixed Reality in der virtuellen Welt die reale Außenwelt für den Nutzer komplett aus. Auch wenn sich diese Variante wie Virtual Reality anhört, gibt es einen gravierenden Unterschied. Während VR nur in der virtuellen Welt stattfindet und sich nicht an der realen Welt orientiert, wird bei MR jeder Schritt und jede Handbewegung in die computergenerierte Welt übertragen. Mixed Reality geht somit einen Schritt weiter und lässt den Nutzer sich frei bewegen, so dass die Bewegungsfreiheit nur durch die reale Umgebung eingeschränkt wird.
Monadischer Test
M wie Monadischer Test
→A/B-Testing
Morphologischer Kasten
M wie Morphologischer Kasten
Der morphologische Kasten ist eine systematisch heuristische Kreativitätstechnik und wird nach seinem Entwickler, dem Schweizer Astrophysiker Fritz Zwicky, auch als Zwicky-Box bezeichnet. Die Methode zielt darauf ab, zu einem konkreten Problem mögliche Lösungen und deren Variationen und Kombinationen zu untersuchen. Die hierfür entwickelte mehrdimensionale Matrix bildet das Kernstück der morphologischen Analyse. Mit dieser wird ein ganzheitlicher Ansatz zur systematischen Lösung einer Aufgabe, eines Problems oder Herausforderung verfolgt. Dieses wird zunächst vorurteilslos in seine einzelnen Merkmale (auch als Attribute, Faktoren, Parameter, Dimensionen bezeichnet) zerlegt und die jeweils verschiedenen Ausprägungen identifiziert oder generiert und anschließend wieder neu kombiniert und zusammengesetzt. Dabei kann entweder nach der besten Lösung oder nach verschiedenen Alternativen zur Lösungsfindung gesucht werden. Die bestimmenden Merkmale werden untereinander aufgeschrieben. Anschließend werden alle möglichen Ausprägungen des jeweiligen Merkmals rechts daneben geschrieben. So entsteht eine Matrix, in der jede Kombination von Ausprägungen aller Merkmale eine theoretisch mögliche Lösung ist. Danach wird aus jeder Zeile eine Ausprägung des Merkmals gewählt, wodurch eine Kombination von Ausprägungen entsteht. Dies kann entweder systematisch oder intuitiv erfolgen. Dieser Prozess wird mehrmals wiederholt, so dass mit den entstandenen Kombinationen von Ausprägungen Ideen entwickelt werden.
Der morphologische Kastens wird insbesondere dann angewendet, wenn komplexe und multidimensionale Probleme analysiert werden müssen. Dies können z. B. Strategieentwicklung, Produktentwicklung, Projektmanagement oder Risikomanagement sein. Das größte Potenzial entwickelt der morphologische Kasten, wenn die Gruppe heterogen und interdisziplinär zusammen gesetzt ist und unterschiedliche Perspektiven bei der Analyse und der Lösungsfindung aufeinander treffen. Für die Entwicklung von radikalen oder disruptiven Innovationen eignet sich die Methode nicht, weil die Möglichkeiten durch die gewählten Dimensionen der Matrix von vornherein limitiert sind.
MoSCoW-Prinzip
M wie MoSCoW-Prinzip
Das MoSCoW-Prinzip beschreibt eine vierstufige Methode zur Kategorisierung von Zielen, Anforderungen und/oder deren Priorisierung. Als Erfinder gilt Dai Clegg, der die Methode 1994 bei Oracle erstmals im Rahmen der so genannten Dynamic Systems Development Method vorstellte. Heute wird das MoSCoW-Prinzip u. a. in der Business Analyse, im Requirements Engineering, im Projektmanagement und in der Softwareentwicklung verwendet. Die einzelnen, großgeschriebenen Buchstaben stehen für vier Kategorien:
- M = Must (have)
- S = Should (have)
- C = Could (have)
- W = Won’t (have)
Die kleingeschriebenen Buchstaben dazwischen dienen lediglich der Lesbarkeit. Werden diese als „oder“ bzw. „or“ verstanden, entstehen zwei sich gegenüberstehende Kategorien, also Must or Should sowie Could or Would bzw. Won’t. Must (have) ist die Kategorie für die „Muss“-Anforderungen und gilt als nicht verhandelbar. Daher sollte sie nicht im Widerspruch zu anderen Muss-Anforderungen stehen. Should (have) ist die Kategorie für die „Soll“-Anforderungen. Idealerweise sollten Anforderungen, die in dieser Kategorie landen, ebenfalls umgesetzt werden. Could (have) ist die Kategorie für die „Kann“-Anforderungen. Sie können umgesetzt werden, nachdem die „Muss“- und „Soll“-Anforderungen umgesetzt wurden. Sie werden daher auch als „nice to have“ bezeichnet und bei zeitlichen Engpässen oder Ressourcenkonflikten als erstes verschoben bzw. nicht realisiert. Won’t (have) ist die Kategorie, die nicht umgesetzt werden. Alternativ wird das W auch als Would (wäre schön, wenn es demnächst umgesetzt werden könnte) oder Want (wird gewünscht, aber in einem anderen Vorhaben, Projekt oder Release) interpretiert. Die „Muss“- als auch „Soll“-Anforderungen werden im Lastenheft oder Business Cases dokumentiert. „Kann“-Anforderungen und nicht umzusetzende Anforderungen verbleiben dagegen in der Regel in internen →Backlogs und dgl.
Münchberger Modell
M wie Münchberger Modell
Das Münchberger Modell erweitert das →Double-Diamond-Modell aus dem klassischen Service Design Prozess um einen fünften Schritt – um die „Design-Umsetzungs-Phase“. Denn das herkömmliche Modell führt nur eine intensive Recherche mit anschließender Interpretation und Verdichtung der Ergebnisse durch. Nach der Ideenfindungs- und Konzeptionsphase sowie der anschließenden Test- und Optimierungsphase endet das Modell. Es ist als Konzeptionsvorlage hervorragend geeignet, lässt aber eine konkrete Anleitung für die operative Umsetzung vermissen. Diesen Punkt ergänzt das Münchberger Modell und ergänzt den Service Design Prozess um diese 5. Phase.
MVP
M wie MVP
MVP ist die englische Abkürzung für Minimum Viable Product und wird wörtlich übersetzt mit einem „minimal brauchbaren oder existenzfähigen Produkt“. Damit beschreibt der MVP die erste minimal funktionsfähige Iteration eines Produktes, die dazu dient, möglichst schnell aus dem Feedback der Nutzer zu lernen und somit Fehlentwicklungen an den Bedürfnissen, Anforderungen und Wünschen der späteren Nutzer vorbei zu verhindern. Das schnell und einfach erstellte „Produkt“ wird nur mit den nötigsten Kernfunktionen ausgestattet. Dennoch sollte die Iteration einen ersten „brauchbaren“ Nutzen bieten, damit die Nutzer das Produkt auch einsetzen. Das Feedback wird dazu genutzt, um das MVP step by step (iterativ) zu erweitern und zu verbessern. Das Ziel dieser Strategie ist die Vermeidung von Produkten, die Kunden nicht brauchen.
Der Begriff des MVP hat seinen Ursprung im Lean-Startup-Gedanken und wurde Anfang der 2000-er Jahre geprägt. Er beschreibt die Entwicklung eines neuen Produktes oder Services nach dem Design-Thinking-Prozess oder dem Customer-Co-Creation-Prozess. Somit entsteht nicht nur eine Neuentwicklung, sondern wurde in einer frühen Phase auch schon der Bedarf und die Bedürfnisse, Wünsche und Anforderungen aus Kundenperspektive und Marktrelevanz geklärt. Der MVP ist somit eine frühe Veröffentlichung eines Produkts oder eines Services in seinem minimalst möglichen Funktionsumfang und darf nicht mit der Entwicklung „minimalistischer“ Produkte verwechselt werden.
Synonym werden auch Begriffe wie z. B. das „Minimum Viable Team“ verwendet, das für minimale Human Resources mit allen nötigen Kompetenzen steht, um das MVP zu verwirklichen oder z. B. „Minimum Marketable Product (MMP)“, wobei Letzteres eher die Weiterentwicklung aus dem MVP beschreibt. Während der MVP z. B. ein Mockup sein könnte, wäre der MMP z. B. ein Click-Dummy. Andere Vergleiche sehen einen MVP z. B. in einem exklusiven Austausch mit ausgewählten Schlüsselkunden und einen MMP in einem regionalen Testmarkt.
N wie Nanobots
N wie Nanobots
Nanobots werden auch als Nanoroboter oder Nanomiten bezeichnet und stehen für autonome Roboter oder molekulare Maschinen im Kleinstformat als eine der Entwicklungsrichtungen der Nanotechnologie. Diese sind mikroskopisch klein und werden häufig nur im Bereich von Nanometern gemessen. Nanobots, die zur Manipulation einzelner Atome und Moleküle fähig sind, werden auch Assembler genannt. Zum besseren Verständnis hilft ggf. ein Vergleich: Nanorobots können mit einer künstlichen Version von Bakterien oder Viren verglichen werden. Mit einer Größe, die sich nahe der mikroskopischen Skala eines Nanometers befindet, können sie biologisch oder synthetisch sein. Allerdings unterscheidet Nanobots von Viren oder Bakterien, dass sie vorprogrammierte Aufgaben auf atomarer Ebene erfüllen können.
Die Idee hinter Nanobots ist relativ einfach: sie Erkundungen übernehmen und Reparaturen im Nanobereich durchführen. Auch wenn sich die Forschung an Nanobots noch in der Frühphase befindet, wird ihnen in den nächsten Jahren ein unglaublich hohes Potenzial zugesprochen. Sie sind ein Teil des aufkommenden Zukunftstrends des AI Healthcare Sektors und sollen spezifische Aufgaben auf atomarer, molekularer und zellulärer Ebene übernehmen. Heutige Prototypen haben noch eine Größe eines Streichholzkopfes und sind von den visionären Nanobots weit entfernt. Der zukünftigen Nanobots wird eine große Zukunft in der Medizin vorausgesagt, da sie autark z. B. im menschlichen Organismus auf der Suche nach Krankheitsherden wie z. B. Krebszellen unterwegs sind und deren Beseitigung unterstützen sollen. Für medizinische Anwendungen wären zudem lange, dünne, faserförmige Nanobots geeignet, die zwischen den Körperzellen oder in den Blutgefäßen verlaufen. Dadurch könnte es möglich werden, einem Patienten von außen gezielt Medikamente oder Substrate zuzuführen und Information über den Status quo von Zellen oder Geweben zu erhalten. Neben medizinischen Anwendungen sind auch Bereiche wie z. B. Umweltschutz oder die Mechatronik prädestiniert für die Nanorobotik („intelligenter Staub“). An einigen Hochschulen wurden mittlerweile Studiengänge Nanorobotics etabliert.
Die größte Herausforderung bei Nanobots besteht darin, in einer so geringen Größe die notwendige Flexibilität und Beweglichkeit sicherzustellen. Schließlich ist nicht nur die Hülle mikroskopisch klein, sondern auch der benötigte Bewegungsapparat. Außerdem benötigt der Nanobot eine Energiequelle für den Antrieb und Sensoren, um die Umgebung zu erfassen und um Bewegungen zielgenau ausführen zu können. Zudem benötigen Nanobots noch Werkzeuge, um etwas tun zu können, also eine Ausstattung. Nach heutigem Stand der Forschung werden so viele Atome und Moleküle unterschiedlichster Arten benötigt, dass in einem Nanopartikel dafür nicht genügend Platz ist. Dies kann nach heutiger Erkenntnis nur in einem größeren Maßstab zusammengebaut werden. Neue Studien lassen allerdings aufhorchen: an der Chinesischen Akademie der Wissenschaften wurde ein Nanoroboter aus DNA gebaut, der als DNA-Origami bezeichnet wird. Die DNA dient als reines Baumaterial, wurde künstlich erzeugt und erfüllt keinerlei biologische Funktionen. Dabei werden die Einzelbausteine der DNA (die Basen) so zusammengefügt, dass eine neue Struktur entsteht. Ziel dieser Studie ist die Entwicklung eines Blutgerinnungsmittels, das zur Verstopfung eines Blutgefäßes führen soll, welches ein Krebsgeschwür mit Nährstoffen versorgt. Das Geschwür stirbt infolgedessen ab, da die Versorgung unterbleibt. Dieser DNA Nanoroboter ist aus drei Elementen aufgebaut: einer beweglichen Hülle (aus DNA-Bausteinen), einer Füllung (der Gerinnungsfaktor) und einem Sensor (einem Protein, das Tumorzellen erkennt).
N wie Nanotechnologie
Der Begriff „nano“ kommt aus dem Griechischen und bedeutet Zwerg. Ein Nanometer (nm) ist ein Milliardstel eines Meters (10-9) und bezeichnet einen Grenzbereich, in dem die physikalisch-chemischen Oberflächeneigenschaften gegenüber den Volumeneigenschaften der Materialien eine immer größere Rolle spielen und zunehmend quantenphysikalische Effekte berücksichtigt werden müssen. Im Vergleich zu größeren Partikeln gleicher chemischer Zusammensetzung weisen Nanoteilchen eine höhere chemische Reaktivität, eine größere biologische Aktivität und ein stärkeres katalytisches Verhalten auf. Ursache hierfür ist die stark vergrößerte Oberfläche, so dass man in der Nanotechnologie von „größeninduzierten Funktionalitäten“ spricht.
Häufig wird von der Nanotechnologie gesprochen, obwohl es die eine eigentlich nicht gibt. Normalerweise müsste man von den Nanotechnologien sprechen, da unter dem Begriff zahlreiche Prinzipien aus verschiedenen Natur- und Ingenieurwissenschaften wie z. B. der Quantenphysik und den Materialwissenschaften, der Elektronik und Informatik sowie der Chemie und Mikro-, Molekular- und Zellbiologie zusammengefasst werden. Die einzige Gemeinsamkeit in all diesen Technologien ist die Größenordnung von einigen Nanometern, in der diese Vorgänge passieren. Allerdings sollte man die Nanotechnologie nicht auf die Miniaturisierung von Dingen reduzieren, denn nanoskalierte Stoffe und Oberflächen weisen zum Teil komplett neue Eigenschaften auf. Hierbei muss unterschieden werden, ob Stoffe und Oberflächen auf der nanodimensionalen Größe aktiv verändert werden (Atom für Atom oder Molekül für Molekül) oder durch eine immer bessere Diagnostik diese Eigenschaften heute sichtbar gemacht werden können und auch früher schon vorhanden waren. Denn viele Effekte, die in den verschiedenen Nanotechnologien genutzt werden, kommen häufig bereits in der Natur vor. Symbolisch und stellvertretend für zahlreiche Beispiele soll der Lotuseffekt genannt werden. Weiterhin ist allgemein unbekannt, dass viele Produkte schon seit mehreren Jahrzehnten auf dem Markt sind und genau diese Eigenschaften aufweisen, denen man heute aufgrund eines medialen Hypes nachträglich die Vorsilbe Nano hinzugefügt hat. Hierzu gehören zahlreiche Pigmente und Additive (in der Beschichtungsindustrie), Fasern (in der Bekleidungsindustrie), Vitamine und Zusatzstoffe (in der Lebensmittelindustrie), Prozessoren (in der Informatik), Wirkstoffe (in der Medizin) oder Kontrastmittel (in der Diagnostik).
Die gleichen Eigenschaften, die nanoskalierte Stoffe und Oberflächen für Forschung und Entwicklung interessant machen, können auch neue Gefahren für Gesundheit und Umwelt mit sich bringen. Nach heutigem Kenntnisstand geht man davon aus, dass Nanopartikel aufgrund ihrer geringen Größe im Körper so genannte Membranfenster im Darm, in den Lungenbläschen oder sogar Zellkernmembranen passieren können, was gesundheitliche Beeinträchtigungen nach sich ziehen kann. Bisher hinkt die Erforschung der Risiken und Nebenwirkungen in der Anwendung von Nanopartikeln in der Vermarktung dieser Produkte noch stark hinterher.
N wie Neophobie
Unter Neophobie (lateinisch neophobia) wird die Angst vor neuen Dingen und/oder unbekannten Situationen verstanden. Gelegentlich wird dieser auch bei der Scheu vor fremden Personen benutzt. Der Begriff setzt sich zusammen aus dem Griechischen neo (neu) und φόβος (für Furcht oder Angst). Menschen mit der Angst vor Neuem oder Veränderungen werden als neophob bezeichnet im Gegensatz zu neophil (Neugier oder Drang nach Neuem). Dabei ist Neophobie keineswegs ein neuer Begriff, der im Zuge der Digitalisierung und Transformation entstanden ist, sondern bereits im Jahr 1852 bildungssprachlich für „Neuerungsscheu“ verwendet wurde.
Im Kontext der Wirtschaft wird der Begriff für die Angst vor Veränderungen verwendet, insbesondere vor Innovation, Digitalisierung und Transformation. Krisenzeiten in Unternehmen und/oder der Gesellschaft gefährden die wirtschaftliche Existenz und fördern die Neophobie. Das Bewahren des Bewährten oder Beharren auf Bekanntes suggeriert dagegen Vertrauen. Daher wird die Neophobie häufig synonym für die Sicherheit und Routine in der eigenen Komfortzone verwendet. Menschen mit einer stark ausgeprägten Neophobie ignorieren Beweise Andersdenkender, suchen immer nach der Bestätigung ihrer eigenen Argumente und nie nach der Widerlegung und vor allem halten sie an ihren Standpunkten auch dann fest, wenn sie erkennen, dass diese falsch sind.
N wie NEST
NEST ist ein Akronym und steht für „Next Evolution in Sustainable Building Technologies“. Hierbei handelt es sich um das weltweit erste Gebäude, das weitgehend mit digitalen Prozessen entworfen, geplant und auch gebaut wird. In dem Gemeinschaftsprojekt der EMPA (Eidgenössische Materialprüfungs- und Forschungsanstalt) u. a. bauen seit 2017 im Schweizer Ort Dübendorf acht Professuren der ETH Zürich das dreigeschossige DFAB Haus (DFAB = Digitale Fabrikation). Im Rahmen dieses Forschungsprojektes kommt auch der „In-Situ-Fabricator“ zum Einsatz – ein Roboter, der speziell für den Baustelleneinsatz konzipiert wurde. Er ist nicht nur wasser- und staubdicht, sondern kann auch drei bis vier Stunden autonom arbeiten. Der →Roboter wurde entwickelt, um komplexe Strukturen aus Stahl und Beton zu errichten.
N wie Net Promoter Score (NPS)
Der Net Promoter Score (kurz NPS) definiert eine Kennzahl, mit der die Zufriedenheit von Kunden eines Unternehmens gemessen wird. Entwickelt wurde die Methode 2003 von Fred Reichheld, einem Partner der weltweit größten Unternehmensberatung Bain & Company. Konkret war er auf der Suche nach einer Methode zur Messung von Kundenloyalität und Empfehlungsbereitschaft. Gemeinsam mit seinem Forscherteam verschickte er 20 unterschiedliche Fragebögen an Tausende von Kunden in sechs Branchen. In seiner Untersuchung kristallisierte sich heraus, dass es keine aufwändigen, umfangreichen und komplexen Kundenstudien braucht, um die Kundenloyalität zu messen. Vielmehr reichen wenige Fragen aus, um die Weiterempfehlungsbereitschaft zu ermitteln. Der Net Promoter Score gibt aber nicht nur Aufschluss über Kennzahlen wie z. B. Kundenzufriedenheit und Kundenloyalität, sondern ist darüber hinaus ein wichtiger Vergleichswert im Benchmarking. Die verwendete Frage ist hierbei immer wieder die Gleiche: „Mit welcher Wahrscheinlichkeit würden Sie dieses Unternehmen (oder dieses Produkt) Freunden, Bekannten oder Kollegen weiterempfehlen?“ Die Zustimmung oder Ablehnung können die Befragten auf einer Skala von Null bis zehn angeben. Je höher die Zahl ist, desto größer ist die Wahrscheinlichkeit, dass das Unternehmen oder Produkt weiterempfohlen wird. Daraus leiten sich folgende drei Kategorien ab:
- 0 bis 6: Detraktoren – Diese Gruppe wird ein Unternehmen (oder Produkt) nicht weiterempfehlen und könnte sogar Freunden, Bekannten oder Kollegen abraten, Kunde zu werden. Zudem neigt diese Gruppe der Kritiker dazu, ihren Unmut zum Ausdruck zu bringen und verfassen schlechte Rezensionen oder Bewertungen in Bewertungsportalen oder den Social Media Kanälen.
- 7 bis 8: Indifferente – Diese Gruppe ist nicht besonders zufrieden, aber auch nicht unzufrieden und steht einem Unternehmen (oder Produkt) neutral gegenüber. Infolgedessen kann diese Gruppe in der NPS-Berechnung vernachlässigt werden.
- 9 bis 10: Promoter – Die so genannten Promoter empfinden ein Unternehmen (oder Produkt) als sehr positiv und empfehlen dies höchstwahrscheinlich ihren Freunden, Bekannten und Kollegen weiter. Diese Gruppe möchte ihre Begeisterung kundtun und nutzt alle Kanäle, um über das Unternehmen (oder Produkt) positiv zu berichten und andere anzustecken.
Die Berechnung des Net Promoter Score wird wie folgt durchgeführt: Zunächst wird errechnet, wie viel Prozent die Gruppe der Promotern und wie viel Prozent die Gruppe der Detraktoren bilden. Anschließend wird die Prozentzahl der Detraktoren von den Promotern abgezogen. Ein Beispiel: Wenn die Detraktoren einen Anteil von 30 Prozent ausmachen und die Promoter 70 Prozent darstellen, errechnet sich der NPS wie folgt: 70 – 30 = 40. Dies stellt den Net Promoter Score dar. Der NPS liegt immer zwischen -100 und 100. Die höchsten NPS-Werte weltweit haben z. B. Amazon, Mercedes oder Harley-Davidson, deren Score zwischen 70 und 80 liegt.
Umfragen zur Ermittlung des Net Promoter Score sollten regelmäßig durchgeführt werden. Nicht nur, um ein kontinuierliches Feedback zu erhalten und dieses miteinander zu vergleichen, um Veränderungen zu beobachten und gezielte Maßnahmen einleiten zu können, sondern auch, um das Image gezielt bei Detraktoren zu verbessern und/oder Indifferente direkt umzustimmen. Außerdem ist der NPS nicht nur ein wichtiger Indikator für die Kundentreue und -zufriedenheit, sondern wird zunehmend auch bei den eigenen Mitarbeitern eingesetzt (Employer Branding). Das Ziel besteht nicht nur darin, deren Zufriedenheit zu verbessern, sondern auch das Recruiting gezielt zu optimieren.
N wie 9-Felder-Modell
Das Neun-Felder-Modell ist ein Coaching- und Beratungswerkzeug in der Mediation. Das von Prof. Joseph Rieforth entwickelte Modell besteht aus einer Matrix, in der auf der vertikalen Achse das Problem, die Ressourcen und die Lösung eingetragen werden und auf der horizontalen Achse die Vergangenheit, Gegenwart und Zukunft. Daraus ergeben sich neun Felder, mit denen Problembereiche sehr konkret und differenziert definiert werden können. Das praxis- und ressourcenorientierte Modell liefert analytische und diagnostische Informationen und Entscheidungshilfen für Unternehmen. Systemische und lösungsorientierte Fragen unterstützen den Klärungsprozess in allen neun Feldern. Lösungsorientiert bedeutet in dem Zusammenhang nicht, dass ein Konflikt gelöst wird, sondern durch die richtige Methode Probleme, Widerstände und Blockaden hinterfragt werden.
N wie New Product Vitality Index (NPVI)
Der Anteil der Innovationen im Verhältnis zum Gesamtportfolio wird als New Product Vitality Index (NPVI) bezeichnet. Er misst den Anteil generierter Umsätze aus Produkten und/oder Services, die in den vergangenen 5 Jahren neu eingeführt wurden. Somit ist der NPVI eine Kennziffer, um die Innovationskraft eines Unternehmens auszudrücken. Bei dem Unternehmen 3M, das Vorreiter in der Anwendung des NPVI ist, liegt der Durchschnitt bei 30%.
Nanobots
N wie Nanobots
Nanobots werden auch als Nanoroboter oder Nanomiten bezeichnet und stehen für autonome Roboter oder molekulare Maschinen im Kleinstformat als eine der Entwicklungsrichtungen der Nanotechnologie. Diese sind mikroskopisch klein und werden häufig nur im Bereich von Nanometern gemessen. Nanobots, die zur Manipulation einzelner Atome und Moleküle fähig sind, werden auch Assembler genannt. Zum besseren Verständnis hilft ggf. ein Vergleich: Nanorobots können mit einer künstlichen Version von Bakterien oder Viren verglichen werden. Mit einer Größe, die sich nahe der mikroskopischen Skala eines Nanometers befindet, können sie biologisch oder synthetisch sein. Allerdings unterscheidet Nanobots von Viren oder Bakterien, dass sie vorprogrammierte Aufgaben auf atomarer Ebene erfüllen können.
Die Idee hinter Nanobots ist relativ einfach: sie Erkundungen übernehmen und Reparaturen im Nanobereich durchführen. Auch wenn sich die Forschung an Nanobots noch in der Frühphase befindet, wird ihnen in den nächsten Jahren ein unglaublich hohes Potenzial zugesprochen. Sie sind ein Teil des aufkommenden Zukunftstrends des AI Healthcare Sektors und sollen spezifische Aufgaben auf atomarer, molekularer und zellulärer Ebene übernehmen. Heutige Prototypen haben noch eine Größe eines Streichholzkopfes und sind von den visionären Nanobots weit entfernt. Der zukünftigen Nanobots wird eine große Zukunft in der Medizin vorausgesagt, da sie autark z. B. im menschlichen Organismus auf der Suche nach Krankheitsherden wie z. B. Krebszellen unterwegs sind und deren Beseitigung unterstützen sollen. Für medizinische Anwendungen wären zudem lange, dünne, faserförmige Nanobots geeignet, die zwischen den Körperzellen oder in den Blutgefäßen verlaufen. Dadurch könnte es möglich werden, einem Patienten von außen gezielt Medikamente oder Substrate zuzuführen und Information über den Status quo von Zellen oder Geweben zu erhalten. Neben medizinischen Anwendungen sind auch Bereiche wie z. B. Umweltschutz oder die Mechatronik prädestiniert für die Nanorobotik („intelligenter Staub“). An einigen Hochschulen wurden mittlerweile Studiengänge Nanorobotics etabliert.
Die größte Herausforderung bei Nanobots besteht darin, in einer so geringen Größe die notwendige Flexibilität und Beweglichkeit sicherzustellen. Schließlich ist nicht nur die Hülle mikroskopisch klein, sondern auch der benötigte Bewegungsapparat. Außerdem benötigt der Nanobot eine Energiequelle für den Antrieb und Sensoren, um die Umgebung zu erfassen und um Bewegungen zielgenau ausführen zu können. Zudem benötigen Nanobots noch Werkzeuge, um etwas tun zu können, also eine Ausstattung. Nach heutigem Stand der Forschung werden so viele Atome und Moleküle unterschiedlichster Arten benötigt, dass in einem Nanopartikel dafür nicht genügend Platz ist. Dies kann nach heutiger Erkenntnis nur in einem größeren Maßstab zusammengebaut werden. Neue Studien lassen allerdings aufhorchen: an der Chinesischen Akademie der Wissenschaften wurde ein Nanoroboter aus DNA gebaut, der als DNA-Origami bezeichnet wird. Die DNA dient als reines Baumaterial, wurde künstlich erzeugt und erfüllt keinerlei biologische Funktionen. Dabei werden die Einzelbausteine der DNA (die Basen) so zusammengefügt, dass eine neue Struktur entsteht. Ziel dieser Studie ist die Entwicklung eines Blutgerinnungsmittels, das zur Verstopfung eines Blutgefäßes führen soll, welches ein Krebsgeschwür mit Nährstoffen versorgt. Das Geschwür stirbt infolgedessen ab, da die Versorgung unterbleibt. Dieser DNA Nanoroboter ist aus drei Elementen aufgebaut: einer beweglichen Hülle (aus DNA-Bausteinen), einer Füllung (der Gerinnungsfaktor) und einem Sensor (einem Protein, das Tumorzellen erkennt).
Nanotechnologie
N wie Nanotechnologie
Der Begriff „nano“ kommt aus dem Griechischen und bedeutet Zwerg. Ein Nanometer (nm) ist ein Milliardstel eines Meters (10-9) und bezeichnet einen Grenzbereich, in dem die physikalisch-chemischen Oberflächeneigenschaften gegenüber den Volumeneigenschaften der Materialien eine immer größere Rolle spielen und zunehmend quantenphysikalische Effekte berücksichtigt werden müssen. Im Vergleich zu größeren Partikeln gleicher chemischer Zusammensetzung weisen Nanoteilchen eine höhere chemische Reaktivität, eine größere biologische Aktivität und ein stärkeres katalytisches Verhalten auf. Ursache hierfür ist die stark vergrößerte Oberfläche, so dass man in der Nanotechnologie von „größeninduzierten Funktionalitäten“ spricht.
Häufig wird von der Nanotechnologie gesprochen, obwohl es die eine eigentlich nicht gibt. Normalerweise müsste man von den Nanotechnologien sprechen, da unter dem Begriff zahlreiche Prinzipien aus verschiedenen Natur- und Ingenieurwissenschaften wie z. B. der Quantenphysik und den Materialwissenschaften, der Elektronik und Informatik sowie der Chemie und Mikro-, Molekular- und Zellbiologie zusammengefasst werden. Die einzige Gemeinsamkeit in all diesen Technologien ist die Größenordnung von einigen Nanometern, in der diese Vorgänge passieren. Allerdings sollte man die Nanotechnologie nicht auf die Miniaturisierung von Dingen reduzieren, denn nanoskalierte Stoffe und Oberflächen weisen zum Teil komplett neue Eigenschaften auf. Hierbei muss unterschieden werden, ob Stoffe und Oberflächen auf der nanodimensionalen Größe aktiv verändert werden (Atom für Atom oder Molekül für Molekül) oder durch eine immer bessere Diagnostik diese Eigenschaften heute sichtbar gemacht werden können und auch früher schon vorhanden waren. Denn viele Effekte, die in den verschiedenen Nanotechnologien genutzt werden, kommen häufig bereits in der Natur vor. Symbolisch und stellvertretend für zahlreiche Beispiele soll der Lotuseffekt genannt werden. Weiterhin ist allgemein unbekannt, dass viele Produkte schon seit mehreren Jahrzehnten auf dem Markt sind und genau diese Eigenschaften aufweisen, denen man heute aufgrund eines medialen Hypes nachträglich die Vorsilbe Nano hinzugefügt hat. Hierzu gehören zahlreiche Pigmente und Additive (in der Beschichtungsindustrie), Fasern (in der Bekleidungsindustrie), Vitamine und Zusatzstoffe (in der Lebensmittelindustrie), Prozessoren (in der Informatik), Wirkstoffe (in der Medizin) oder Kontrastmittel (in der Diagnostik).
Die gleichen Eigenschaften, die nanoskalierte Stoffe und Oberflächen für Forschung und Entwicklung interessant machen, können auch neue Gefahren für Gesundheit und Umwelt mit sich bringen. Nach heutigem Kenntnisstand geht man davon aus, dass Nanopartikel aufgrund ihrer geringen Größe im Körper so genannte Membranfenster im Darm, in den Lungenbläschen oder sogar Zellkernmembranen passieren können, was gesundheitliche Beeinträchtigungen nach sich ziehen kann. Bisher hinkt die Erforschung der Risiken und Nebenwirkungen in der Anwendung von Nanopartikeln in der Vermarktung dieser Produkte noch stark hinterher.
Neophobie
N wie Neophobie
Unter Neophobie (lateinisch neophobia) wird die Angst vor neuen Dingen und/oder unbekannten Situationen verstanden. Gelegentlich wird dieser auch bei der Scheu vor fremden Personen benutzt. Der Begriff setzt sich zusammen aus dem Griechischen neo (neu) und φόβος (für Furcht oder Angst). Menschen mit der Angst vor Neuem oder Veränderungen werden als neophob bezeichnet im Gegensatz zu neophil (Neugier oder Drang nach Neuem). Dabei ist Neophobie keineswegs ein neuer Begriff, der im Zuge der Digitalisierung und Transformation entstanden ist, sondern bereits im Jahr 1852 bildungssprachlich für „Neuerungsscheu“ verwendet wurde.
Im Kontext der Wirtschaft wird der Begriff für die Angst vor Veränderungen verwendet, insbesondere vor Innovation, Digitalisierung und Transformation. Krisenzeiten in Unternehmen und/oder der Gesellschaft gefährden die wirtschaftliche Existenz und fördern die Neophobie. Das Bewahren des Bewährten oder Beharren auf Bekanntes suggeriert dagegen Vertrauen. Daher wird die Neophobie häufig synonym für die Sicherheit und Routine in der eigenen Komfortzone verwendet. Menschen mit einer stark ausgeprägten Neophobie ignorieren Beweise Andersdenkender, suchen immer nach der Bestätigung ihrer eigenen Argumente und nie nach der Widerlegung und vor allem halten sie an ihren Standpunkten auch dann fest, wenn sie erkennen, dass diese falsch sind.
NEST
N wie NEST
NEST ist ein Akronym und steht für „Next Evolution in Sustainable Building Technologies“. Hierbei handelt es sich um das weltweit erste Gebäude, das weitgehend mit digitalen Prozessen entworfen, geplant und auch gebaut wird. In dem Gemeinschaftsprojekt der EMPA (Eidgenössische Materialprüfungs- und Forschungsanstalt) u. a. bauen seit 2017 im Schweizer Ort Dübendorf acht Professuren der ETH Zürich das dreigeschossige DFAB Haus (DFAB = Digitale Fabrikation). Im Rahmen dieses Forschungsprojektes kommt auch der „In-Situ-Fabricator“ zum Einsatz – ein Roboter, der speziell für den Baustelleneinsatz konzipiert wurde. Er ist nicht nur wasser- und staubdicht, sondern kann auch drei bis vier Stunden autonom arbeiten. Der →Roboter wurde entwickelt, um komplexe Strukturen aus Stahl und Beton zu errichten.
Net Promoter Score (NPS)
N wie Net Promoter Score (NPS)
Der Net Promoter Score (kurz NPS) definiert eine Kennzahl, mit der die Zufriedenheit von Kunden eines Unternehmens gemessen wird. Entwickelt wurde die Methode 2003 von Fred Reichheld, einem Partner der weltweit größten Unternehmensberatung Bain & Company. Konkret war er auf der Suche nach einer Methode zur Messung von Kundenloyalität und Empfehlungsbereitschaft. Gemeinsam mit seinem Forscherteam verschickte er 20 unterschiedliche Fragebögen an Tausende von Kunden in sechs Branchen. In seiner Untersuchung kristallisierte sich heraus, dass es keine aufwändigen, umfangreichen und komplexen Kundenstudien braucht, um die Kundenloyalität zu messen. Vielmehr reichen wenige Fragen aus, um die Weiterempfehlungsbereitschaft zu ermitteln. Der Net Promoter Score gibt aber nicht nur Aufschluss über Kennzahlen wie z. B. Kundenzufriedenheit und Kundenloyalität, sondern ist darüber hinaus ein wichtiger Vergleichswert im Benchmarking. Die verwendete Frage ist hierbei immer wieder die Gleiche: „Mit welcher Wahrscheinlichkeit würden Sie dieses Unternehmen (oder dieses Produkt) Freunden, Bekannten oder Kollegen weiterempfehlen?“ Die Zustimmung oder Ablehnung können die Befragten auf einer Skala von Null bis zehn angeben. Je höher die Zahl ist, desto größer ist die Wahrscheinlichkeit, dass das Unternehmen oder Produkt weiterempfohlen wird. Daraus leiten sich folgende drei Kategorien ab:
- 0 bis 6: Detraktoren – Diese Gruppe wird ein Unternehmen (oder Produkt) nicht weiterempfehlen und könnte sogar Freunden, Bekannten oder Kollegen abraten, Kunde zu werden. Zudem neigt diese Gruppe der Kritiker dazu, ihren Unmut zum Ausdruck zu bringen und verfassen schlechte Rezensionen oder Bewertungen in Bewertungsportalen oder den Social Media Kanälen.
- 7 bis 8: Indifferente – Diese Gruppe ist nicht besonders zufrieden, aber auch nicht unzufrieden und steht einem Unternehmen (oder Produkt) neutral gegenüber. Infolgedessen kann diese Gruppe in der NPS-Berechnung vernachlässigt werden.
- 9 bis 10: Promoter – Die so genannten Promoter empfinden ein Unternehmen (oder Produkt) als sehr positiv und empfehlen dies höchstwahrscheinlich ihren Freunden, Bekannten und Kollegen weiter. Diese Gruppe möchte ihre Begeisterung kundtun und nutzt alle Kanäle, um über das Unternehmen (oder Produkt) positiv zu berichten und andere anzustecken.
Die Berechnung des Net Promoter Score wird wie folgt durchgeführt: Zunächst wird errechnet, wie viel Prozent die Gruppe der Promotern und wie viel Prozent die Gruppe der Detraktoren bilden. Anschließend wird die Prozentzahl der Detraktoren von den Promotern abgezogen. Ein Beispiel: Wenn die Detraktoren einen Anteil von 30 Prozent ausmachen und die Promoter 70 Prozent darstellen, errechnet sich der NPS wie folgt: 70 – 30 = 40. Dies stellt den Net Promoter Score dar. Der NPS liegt immer zwischen -100 und 100. Die höchsten NPS-Werte weltweit haben z. B. Amazon, Mercedes oder Harley-Davidson, deren Score zwischen 70 und 80 liegt.
Umfragen zur Ermittlung des Net Promoter Score sollten regelmäßig durchgeführt werden. Nicht nur, um ein kontinuierliches Feedback zu erhalten und dieses miteinander zu vergleichen, um Veränderungen zu beobachten und gezielte Maßnahmen einleiten zu können, sondern auch, um das Image gezielt bei Detraktoren zu verbessern und/oder Indifferente direkt umzustimmen. Außerdem ist der NPS nicht nur ein wichtiger Indikator für die Kundentreue und -zufriedenheit, sondern wird zunehmend auch bei den eigenen Mitarbeitern eingesetzt (Employer Branding). Das Ziel besteht nicht nur darin, deren Zufriedenheit zu verbessern, sondern auch das Recruiting gezielt zu optimieren.
9-Felder-Modell
N wie 9-Felder-Modell
Das Neun-Felder-Modell ist ein Coaching- und Beratungswerkzeug in der Mediation. Das von Prof. Joseph Rieforth entwickelte Modell besteht aus einer Matrix, in der auf der vertikalen Achse das Problem, die Ressourcen und die Lösung eingetragen werden und auf der horizontalen Achse die Vergangenheit, Gegenwart und Zukunft. Daraus ergeben sich neun Felder, mit denen Problembereiche sehr konkret und differenziert definiert werden können. Das praxis- und ressourcenorientierte Modell liefert analytische und diagnostische Informationen und Entscheidungshilfen für Unternehmen. Systemische und lösungsorientierte Fragen unterstützen den Klärungsprozess in allen neun Feldern. Lösungsorientiert bedeutet in dem Zusammenhang nicht, dass ein Konflikt gelöst wird, sondern durch die richtige Methode Probleme, Widerstände und Blockaden hinterfragt werden.
New Product Vitality Index (NPVI)
N wie New Product Vitality Index (NPVI)
Der Anteil der Innovationen im Verhältnis zum Gesamtportfolio wird als New Product Vitality Index (NPVI) bezeichnet. Er misst den Anteil generierter Umsätze aus Produkten und/oder Services, die in den vergangenen 5 Jahren neu eingeführt wurden. Somit ist der NPVI eine Kennziffer, um die Innovationskraft eines Unternehmens auszudrücken. Bei dem Unternehmen 3M, das Vorreiter in der Anwendung des NPVI ist, liegt der Durchschnitt bei 30%.
O wie Open BIM
O wie open BIM
Der Begriff „open BIM“ steht für herstellerunabhängige und -übergreifende sowie praxistaugliche Austauschformate für unterschiedliche Aspekte im Rahmen von →BIM-Projekten (Building Information Modeling). Die bekanntesten sind:
- IFC (Industry Foundation Classes) definiert ein Datenmodell für den Austausch von Bauprojektinformationen zwischen unterschiedlichen Software-Anwendungen
- BCF (Open BIM Collaboration Format) definiert ein Datenmodell für die Koordination von Aufgaben zwischen verschiedenen Beteiligten in Verbindung mit IFC
- MVD (Model View Definition) definieren Teilmengen des IFC-Datenmodells für bestimmte Anwendungsfälle
- bsDD (buildingSMART Data Dictionary) definiert ein Vokabular für eine einheitliche Verwendung von Fach-Terminologie.
- IDM (Information Delivery Manual) definiert ein Datenmodell, um die Anforderungen für den Datenaustausch strukturiert zusammenzufassen.
O wie Open Innovation
Mit Open Innovation wird die gezielte Öffnung der Innovationsprozesse nach außen bezeichnet, um Wissen und Ideen sowie neue Technologien von externen Partnern ins Unternehmen mit einfließen zu lassen. Hierbei kann es sich um Kunden, Lieferanten, Hochschulen, Innovationsagenturen und Startups sowie in seltenen Fällen auch um Wettbewerber handeln. Charakteristisch für Open Innovation ist, dass diese externen Experten in die Entwicklung von Ideen und neuen Produkten und Dienstleistungen mit eingebunden werden und deren Feedback in den eigenen Innovationsprozess mit einfließen. Gerade in Zeiten der Digitalisierung, der rasanten Entwicklung der Technologien sowie der zunehmenden Bedeutung digitaler Geschäftsmodelle und disruptiver Innovationen ist diese Öffnung wichtig bis überlebensnotwendig, da die meisten Unternehmen die notwendigen Kompetenzen nicht im eigenen Unternehmen vorweisen können.
Aber nicht nur der Zugang allein zu externen Ideen, Wissen und Technologien gilt als Vorteil, denn neben der Steigerung der Innovationsqualität bringt Open Innovation z. B. auch schnellere Entwicklungszeiten, da die Expertise schon verfügbar ist und nicht erst aufgebaut werden muss. Hinzu kommen niedrigere Entwicklungsrisiken, da diese bei Kooperationen auf mehrere Partner verteilt oder durch die vorhandene Expertise und Erfahrung reduziert werden. Außerdem werden häufig Zugänge zu öffentlichen Förderungen durch die Zusammenarbeit mit Hochschulen und Forschungseinrichtungen ermöglicht.
Zum Open Innovation Konzept bestehen Überschneidungen zu ähnlichen Ansätzen wie z. B. Co-creation und Crowdsourcing. Open Innovation kennt zwei unterschiedliche Richtungen. Unternehmen und Einzelpersonen können sowohl Empfänger als auch Lieferanten von Kreativität und Wissen sein. Entsprechend werden drei Ansätze unterschieden:
- Outside-in (Inbound): Unternehmen bzw. Einzelpersonen sind in der Rolle der Nutzer fremden Wissens oder fremder Ideen. Dieser Prozess kann durch Methoden wie z. B. Ideenwettbewerbe oder Lizenzvereinbarungen gestaltet werden.
- Inside-out (Outbound): Unternehmen oder Einzelpersonen stellen ihr Wissen oder ihre Ideen anderen zur Verfügung. Dies erfolgt z. B. als Teilnehmer von Ideenwettbewerben, als Berater oder als Unternehmen, das sich auf die Entwicklung von Innovationsprojekten und/oder der Beratung im Innovationsmanagement spezialisiert hat.
- Kooperative Entwicklung: Unternehmen und Einzelpersonen entwickeln gemeinsam neue Ideen und können den Prozess durch die Kollaboration optimieren.
Die Öffnung des Innovationsprozesses kann sehr unterschiedlich stattfinden. Neben einem kompletten Outsourcing gibt es die Möglichkeit der gemeinsamen Entwicklung in einem Netzwerk. Andere Ansätze konzentrieren sich darauf, externe Ideen durch ein internes Innovationsmanagement bewerten zu lassen. Alternativ erfolgt die Entscheidung darüber nach der Art der Innovation: je nachdem, ob es um Produkt-, Prozess-, Verfahrens-, Vertriebs- oder Geschäftsmodellinnovationen geht, liegt die Verantwortung mehr innerhalb oder außerhalb des Unternehmens. Best Practices oder eine Blaupause kann es bei dieser Frage nicht geben, da dies jedes Unternehmen individuell entscheiden muss. Allein die Entscheidung, ob Innovationen technologie- oder marktgetrieben sind, für den B2B- oder B2C-Markt entwickelt werden sollen, die Individualität, Schnelllebigkeit der Branche sowie die Erwartungen der Kunden und Zielgruppen oder auch die Komplexität der angewandten Technologien und Kompetenzen sind nur einige Beispiele und erheben nicht den Anspruch auf Vollständigkeit.
open BIM
O wie open BIM
Der Begriff „open BIM“ steht für herstellerunabhängige und -übergreifende sowie praxistaugliche Austauschformate für unterschiedliche Aspekte im Rahmen von →BIM-Projekten (Building Information Modeling). Die bekanntesten sind:
- IFC (Industry Foundation Classes) definiert ein Datenmodell für den Austausch von Bauprojektinformationen zwischen unterschiedlichen Software-Anwendungen
- BCF (Open BIM Collaboration Format) definiert ein Datenmodell für die Koordination von Aufgaben zwischen verschiedenen Beteiligten in Verbindung mit IFC
- MVD (Model View Definition) definieren Teilmengen des IFC-Datenmodells für bestimmte Anwendungsfälle
- bsDD (buildingSMART Data Dictionary) definiert ein Vokabular für eine einheitliche Verwendung von Fach-Terminologie.
- IDM (Information Delivery Manual) definiert ein Datenmodell, um die Anforderungen für den Datenaustausch strukturiert zusammenzufassen.
Open Innovation
O wie Open Innovation
Mit Open Innovation wird die gezielte Öffnung der Innovationsprozesse nach außen bezeichnet, um Wissen und Ideen sowie neue Technologien von externen Partnern ins Unternehmen mit einfließen zu lassen. Hierbei kann es sich um Kunden, Lieferanten, Hochschulen, Innovationsagenturen und Startups sowie in seltenen Fällen auch um Wettbewerber handeln. Charakteristisch für Open Innovation ist, dass diese externen Experten in die Entwicklung von Ideen und neuen Produkten und Dienstleistungen mit eingebunden werden und deren Feedback in den eigenen Innovationsprozess mit einfließen. Gerade in Zeiten der Digitalisierung, der rasanten Entwicklung der Technologien sowie der zunehmenden Bedeutung digitaler Geschäftsmodelle und disruptiver Innovationen ist diese Öffnung wichtig bis überlebensnotwendig, da die meisten Unternehmen die notwendigen Kompetenzen nicht im eigenen Unternehmen vorweisen können.
Aber nicht nur der Zugang allein zu externen Ideen, Wissen und Technologien gilt als Vorteil, denn neben der Steigerung der Innovationsqualität bringt Open Innovation z. B. auch schnellere Entwicklungszeiten, da die Expertise schon verfügbar ist und nicht erst aufgebaut werden muss. Hinzu kommen niedrigere Entwicklungsrisiken, da diese bei Kooperationen auf mehrere Partner verteilt oder durch die vorhandene Expertise und Erfahrung reduziert werden. Außerdem werden häufig Zugänge zu öffentlichen Förderungen durch die Zusammenarbeit mit Hochschulen und Forschungseinrichtungen ermöglicht.
Zum Open Innovation Konzept bestehen Überschneidungen zu ähnlichen Ansätzen wie z. B. Co-creation und Crowdsourcing. Open Innovation kennt zwei unterschiedliche Richtungen. Unternehmen und Einzelpersonen können sowohl Empfänger als auch Lieferanten von Kreativität und Wissen sein. Entsprechend werden drei Ansätze unterschieden:
- Outside-in (Inbound): Unternehmen bzw. Einzelpersonen sind in der Rolle der Nutzer fremden Wissens oder fremder Ideen. Dieser Prozess kann durch Methoden wie z. B. Ideenwettbewerbe oder Lizenzvereinbarungen gestaltet werden.
- Inside-out (Outbound): Unternehmen oder Einzelpersonen stellen ihr Wissen oder ihre Ideen anderen zur Verfügung. Dies erfolgt z. B. als Teilnehmer von Ideenwettbewerben, als Berater oder als Unternehmen, das sich auf die Entwicklung von Innovationsprojekten und/oder der Beratung im Innovationsmanagement spezialisiert hat.
- Kooperative Entwicklung: Unternehmen und Einzelpersonen entwickeln gemeinsam neue Ideen und können den Prozess durch die Kollaboration optimieren.
Die Öffnung des Innovationsprozesses kann sehr unterschiedlich stattfinden. Neben einem kompletten Outsourcing gibt es die Möglichkeit der gemeinsamen Entwicklung in einem Netzwerk. Andere Ansätze konzentrieren sich darauf, externe Ideen durch ein internes Innovationsmanagement bewerten zu lassen. Alternativ erfolgt die Entscheidung darüber nach der Art der Innovation: je nachdem, ob es um Produkt-, Prozess-, Verfahrens-, Vertriebs- oder Geschäftsmodellinnovationen geht, liegt die Verantwortung mehr innerhalb oder außerhalb des Unternehmens. Best Practices oder eine Blaupause kann es bei dieser Frage nicht geben, da dies jedes Unternehmen individuell entscheiden muss. Allein die Entscheidung, ob Innovationen technologie- oder marktgetrieben sind, für den B2B- oder B2C-Markt entwickelt werden sollen, die Individualität, Schnelllebigkeit der Branche sowie die Erwartungen der Kunden und Zielgruppen oder auch die Komplexität der angewandten Technologien und Kompetenzen sind nur einige Beispiele und erheben nicht den Anspruch auf Vollständigkeit.
P wie passive Umsetzer
P wie Passive Umsetzer
Passive Umsetzer ist ein Begriff aus den innovativen Milieus. Diese Unternehmen betreiben keine Innovationen aus eigenem Antrieb, sondern nutzen ihre gute Vernetzung zu Kunden und Lieferanten, um deren Vorschläge zur Entwicklung und/oder Verbesserung ihrer eigenen Produkte und Dienstleistungen aufzunehmen und umzusetzen. Typisch für passive Umsetzer ist auch, dass sie den Wettbewerb kopieren, da es an unternehmensinterner Innovationskompetenz und an einer aktiven Innovationsstrategie fehlt. Passive Umsetzer haben ein sehr niedriges Innovationsniveau. Fast ein Fünftel der Unternehmen wird diesem Milieu zugeordnet.
→ innovative Milieus
P wie Patent
Ein Patent hat als gewerbliches →Schutzrecht eine hohe Bedeutung. Denn es räumt dem Patentinhaber für einen Zeitraum von bis zu 20 Jahren das ausschließliche Recht ein, über seine Erfindung zu verfügen. Niemand darf ohne seine Zustimmung von der patentierten Erfindung Gebrauch machen und Produkte ohne Lizenz herstellen, anbieten, in den Verkehr bringen, importieren oder patentierte Verfahren anwenden. Eine zum Patent angemeldete Erfindung wird im Gegensatz zum Gebrauchsmuster nicht nur formal sondern auch inhaltlich geprüft. Patente können für Erfindungen und Verfahren aus allen Bereichen der Technik erteilt werden. Vor allem müssen diese drei Kriterien erfüllt sein: Neuheit, beruhen auf einer erfinderischen Tätigkeit und eine gewerbliche Anwendbarkeit. Dagegen ist ein Patentschutz nicht möglich für bloße Entdeckungen (also dem Auffinden von etwas bereits Vorhandenem), wissenschaftliche Theorien oder mathematische Methoden, Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, Spiele, ästhetische Formschöpfungen sowie geschäftliche Tätigkeiten wie z. B. Geschäftsmodelle oder Organisationsstrukturen. Als erfinderisch ist eine Tätigkeit einzustufen, wenn ein mit der Materie vertrauter Fachmann mit durchschnittlicher Expertise nach dem Stand der Technik nicht in der Lage wäre, zu dieser technischen Entwicklung zu gelangen. Man nennt dies auch die so genannte Erfindungshöhe, nicht zu verwechseln mit der Schöpfungshöhe im Urheberrecht.
Eine eingeschränkte Schutzwirkung beginnt mit der Offenlegung der Erfindung (normalerweise 18 Monate nach der Anmeldung). Die volle Schutzwirkung beginnt mit der Erteilung des Patents, wobei vom Anmeldetag an mit mindestens zwei Jahren bis zur Erteilung gerechnet werden muss. Die maximale Laufzeit beträgt 20 Jahre. Das Patent wird nur aufrechterhalten, wenn und solange die Jahresgebühr an das Patent- und Markenamt entrichtet wird. Ein beim Deutschen Patent- und Markenamt (DPMA) angemeldetes deutsches Patent entfaltet seine Schutzwirkung nur in Deutschland. Wenn die Schutzwirkung ausgedehnt werden soll, muss das Patent beim europäischen Patentamt eingereicht werden und kann somit für bis zu 38 Vertragsstaaten des Europäischen Patentübereinkommens oder nur für einzelne, ausgewählte Staaten erreicht werden. Eine internationale Patentanmeldung nach dem PCT (Patent Cooperation Treaty) führt nur zu einer Vielzahl von nationalen Schutzrechten. Nach der internationalen Anmeldephase müssen diese einzeln weiterverfolgt werden. Eine internationale oder europäische Patentanmeldung kann ebenfalls beim DPMA eingereicht werden.
P wie Pivoting-Methode
Der Begriff Pivot kommt aus dem Englischen und wurde erstmals im Lean Startup Modell von Eric Ries erwähnt. Pivoting beschreibt die notwendige und signifikante Anpassung der Strategieausrichtung eines Startups, damit dieses erfolgreicher wird, wobei die ursprüngliche Unternehmensvision nicht in Frage gestellt wird. Nicht selten handelt es sich um einen radikalen Kurswechsel, so dass auch etablierte Unternehmen die Methode anwenden, wenn es um die Entwicklung radikaler oder disruptiver Innovationen geht. Auslöser sind selten organische Prozesse oder einzelne Kundenfeedbacks, sondern meist dramatische Veränderungen, die zu existenzbedrohenden Umsatz- oder Gewinneinbußen führen. Je nach Auslöser werden einzelne Produkte, Sortimente, Kundenstrukturen, Absatzwege und Vertriebskanäle oder das komplette Geschäftsmodell hinterfragt.
P wie Pretotyping
Pretotyping ist eine Methode, um erste Produktideen schnell und kostengünstig zu testen und darf nicht mit →Prototyping verwechselt werden. Ein Prototyp ist ein funktionsfähiges, aber vereinfachtes Versuchsmodell eines geplanten Produktes, eines Bauteils oder einer Software. Es geht darum herauszufinden, ob ein Produkt entwickelt werden kann und wie vorgesehen auch funktioniert sowie ob es günstig und schnell produziert werden kann. Beim Pretotyping geht es allerdings nicht um die tatsächliche Funktionalität, sondern um eine gedachte Lösung. Es wird also lediglich so getan, als wäre eine Funktion vorhanden. Dies reicht in der Regel schon aus, um den Bedarf an einer Lösung, die Art der Nutzung und mögliche Herausforderungen zu identifizieren. Der Begriff setzt sich aus „pretend“ und „prototyping“ zusammen. Die Methode wird eingesetzt, um innerhalb von wenigen Stunden, max. einigen Tagen, heraus zu finden, ob ein Produkt gekauft und genutzt werden würde, wenn es existieren würde. „Fail fast“ lautet daher eine elementare Prämisse im Pretotyping, das als →Lean Startup Methode gilt und die Vorstufe zum →MVP (Minimum Viable Product) darstellt. Anhand eines extrem vereinfachten Prototyps werden Features und Funktionen simuliert und Interaktion potentieller Kunden beobachtet und analysiert. Durch Pretotyping soll herausgefunden werden, ob Nutzer grundsätzlich ein Interesse an dem Produkt hätten, dieses in der Art und Weise benutzen würden, wie es angedacht ist, dieses regelmäßig nutzen und im Endeffekt erwerben würden. Die Methode geht auf Alberto Savoia (früher Engineering Director bei Google) und seine Kollegen Richard Cox Braden und Leslie Barry zurück. Sie erkannten, dass sich die meisten Neuentwicklungen am Markt nicht durchsetzen, obwohl diese mit viel Know-how entwickelt wurden.
P wie Promoter
→Net Promoter Score (NPS)
P wie PropTech
PropTech als Abkürzung aus dem englischen Begriff Property Technology bezeichnet seit Mitte der 2010er Jahre die digitale Transformation der Bau- und Immobilienbranche und umfasst die innovativen Unternehmen (in der Regel Startups) in diesem Wirtschaftszweig. Im angelsächsischen Raum wird meist der alternative Kurzbegriff ReTech (für Real Estate Technology) verwendet. Digitale Lösungen bei der Entwicklung, Planung und der Errichtung von Gebäuden werden dagegen unter dem Begriff →ConTech zusammengefasst, der die Kurzform für Construction Technology ist.
PropTech-Unternehmen entwickeln oder optimieren Produkte und Dienstleistungen für den Bau- und Immobiliensektor, in dem neueste Informations- und Kommunikationstechnologien angewendet werden, Geschäftsprozesse und/oder Geschäftsmodelle effizienter gestaltet oder technologiebasierte Lösungen entwickelt werden. PropTechs richten sich sowohl an Unternehmen (z. B. im Rahmen von →BIM) als auch an Endverbraucher (z. B. bei →smart Home). PropTech-Firmen und ihre Produkte und Dienstleistungen decken in vielen Fällen den kompletten Lebenszyklus ab – von der Finanzierung und Realisierung von Bau- und Immobilienprojekten bis zur späteren Nutzung und Betreibung der Immobilie bzw. Verwertung durch Vermietung oder Weiterverkauf. Dabei verschwimmen immer öfter die herkömmlichen Abgrenzungen zwischen Planungs- und Finanzierungsträgern, Immobilienverwaltern und Maklern.
Passive Umsetzer
P wie Passive Umsetzer
Passive Umsetzer ist ein Begriff aus den innovativen Milieus. Diese Unternehmen betreiben keine Innovationen aus eigenem Antrieb, sondern nutzen ihre gute Vernetzung zu Kunden und Lieferanten, um deren Vorschläge zur Entwicklung und/oder Verbesserung ihrer eigenen Produkte und Dienstleistungen aufzunehmen und umzusetzen. Typisch für passive Umsetzer ist auch, dass sie den Wettbewerb kopieren, da es an unternehmensinterner Innovationskompetenz und an einer aktiven Innovationsstrategie fehlt. Passive Umsetzer haben ein sehr niedriges Innovationsniveau. Fast ein Fünftel der Unternehmen wird diesem Milieu zugeordnet.
→ innovative Milieus
Patent
P wie Patent
Ein Patent hat als gewerbliches →Schutzrecht eine hohe Bedeutung. Denn es räumt dem Patentinhaber für einen Zeitraum von bis zu 20 Jahren das ausschließliche Recht ein, über seine Erfindung zu verfügen. Niemand darf ohne seine Zustimmung von der patentierten Erfindung Gebrauch machen und Produkte ohne Lizenz herstellen, anbieten, in den Verkehr bringen, importieren oder patentierte Verfahren anwenden. Eine zum Patent angemeldete Erfindung wird im Gegensatz zum Gebrauchsmuster nicht nur formal sondern auch inhaltlich geprüft. Patente können für Erfindungen und Verfahren aus allen Bereichen der Technik erteilt werden. Vor allem müssen diese drei Kriterien erfüllt sein: Neuheit, beruhen auf einer erfinderischen Tätigkeit und eine gewerbliche Anwendbarkeit. Dagegen ist ein Patentschutz nicht möglich für bloße Entdeckungen (also dem Auffinden von etwas bereits Vorhandenem), wissenschaftliche Theorien oder mathematische Methoden, Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, Spiele, ästhetische Formschöpfungen sowie geschäftliche Tätigkeiten wie z. B. Geschäftsmodelle oder Organisationsstrukturen. Als erfinderisch ist eine Tätigkeit einzustufen, wenn ein mit der Materie vertrauter Fachmann mit durchschnittlicher Expertise nach dem Stand der Technik nicht in der Lage wäre, zu dieser technischen Entwicklung zu gelangen. Man nennt dies auch die so genannte Erfindungshöhe, nicht zu verwechseln mit der Schöpfungshöhe im Urheberrecht.
Eine eingeschränkte Schutzwirkung beginnt mit der Offenlegung der Erfindung (normalerweise 18 Monate nach der Anmeldung). Die volle Schutzwirkung beginnt mit der Erteilung des Patents, wobei vom Anmeldetag an mit mindestens zwei Jahren bis zur Erteilung gerechnet werden muss. Die maximale Laufzeit beträgt 20 Jahre. Das Patent wird nur aufrechterhalten, wenn und solange die Jahresgebühr an das Patent- und Markenamt entrichtet wird. Ein beim Deutschen Patent- und Markenamt (DPMA) angemeldetes deutsches Patent entfaltet seine Schutzwirkung nur in Deutschland. Wenn die Schutzwirkung ausgedehnt werden soll, muss das Patent beim europäischen Patentamt eingereicht werden und kann somit für bis zu 38 Vertragsstaaten des Europäischen Patentübereinkommens oder nur für einzelne, ausgewählte Staaten erreicht werden. Eine internationale Patentanmeldung nach dem PCT (Patent Cooperation Treaty) führt nur zu einer Vielzahl von nationalen Schutzrechten. Nach der internationalen Anmeldephase müssen diese einzeln weiterverfolgt werden. Eine internationale oder europäische Patentanmeldung kann ebenfalls beim DPMA eingereicht werden.
Pivoting-Methode
P wie Pivoting-Methode
Der Begriff Pivot kommt aus dem Englischen und wurde erstmals im Lean Startup Modell von Eric Ries erwähnt. Pivoting beschreibt die notwendige und signifikante Anpassung der Strategieausrichtung eines Startups, damit dieses erfolgreicher wird, wobei die ursprüngliche Unternehmensvision nicht in Frage gestellt wird. Nicht selten handelt es sich um einen radikalen Kurswechsel, so dass auch etablierte Unternehmen die Methode anwenden, wenn es um die Entwicklung radikaler oder disruptiver Innovationen geht. Auslöser sind selten organische Prozesse oder einzelne Kundenfeedbacks, sondern meist dramatische Veränderungen, die zu existenzbedrohenden Umsatz- oder Gewinneinbußen führen. Je nach Auslöser werden einzelne Produkte, Sortimente, Kundenstrukturen, Absatzwege und Vertriebskanäle oder das komplette Geschäftsmodell hinterfragt.
Pretotyping
P wie Pretotyping
Pretotyping ist eine Methode, um erste Produktideen schnell und kostengünstig zu testen und darf nicht mit →Prototyping verwechselt werden. Ein Prototyp ist ein funktionsfähiges, aber vereinfachtes Versuchsmodell eines geplanten Produktes, eines Bauteils oder einer Software. Es geht darum herauszufinden, ob ein Produkt entwickelt werden kann und wie vorgesehen auch funktioniert sowie ob es günstig und schnell produziert werden kann. Beim Pretotyping geht es allerdings nicht um die tatsächliche Funktionalität, sondern um eine gedachte Lösung. Es wird also lediglich so getan, als wäre eine Funktion vorhanden. Dies reicht in der Regel schon aus, um den Bedarf an einer Lösung, die Art der Nutzung und mögliche Herausforderungen zu identifizieren. Der Begriff setzt sich aus „pretend“ und „prototyping“ zusammen. Die Methode wird eingesetzt, um innerhalb von wenigen Stunden, max. einigen Tagen, heraus zu finden, ob ein Produkt gekauft und genutzt werden würde, wenn es existieren würde. „Fail fast“ lautet daher eine elementare Prämisse im Pretotyping, das als →Lean Startup Methode gilt und die Vorstufe zum →MVP (Minimum Viable Product) darstellt. Anhand eines extrem vereinfachten Prototyps werden Features und Funktionen simuliert und Interaktion potentieller Kunden beobachtet und analysiert. Durch Pretotyping soll herausgefunden werden, ob Nutzer grundsätzlich ein Interesse an dem Produkt hätten, dieses in der Art und Weise benutzen würden, wie es angedacht ist, dieses regelmäßig nutzen und im Endeffekt erwerben würden. Die Methode geht auf Alberto Savoia (früher Engineering Director bei Google) und seine Kollegen Richard Cox Braden und Leslie Barry zurück. Sie erkannten, dass sich die meisten Neuentwicklungen am Markt nicht durchsetzen, obwohl diese mit viel Know-how entwickelt wurden.
Promoter
P wie Promoter
→Net Promoter Score (NPS)
PropTech
P wie PropTech
PropTech als Abkürzung aus dem englischen Begriff Property Technology bezeichnet seit Mitte der 2010er Jahre die digitale Transformation der Bau- und Immobilienbranche und umfasst die innovativen Unternehmen (in der Regel Startups) in diesem Wirtschaftszweig. Im angelsächsischen Raum wird meist der alternative Kurzbegriff ReTech (für Real Estate Technology) verwendet. Digitale Lösungen bei der Entwicklung, Planung und der Errichtung von Gebäuden werden dagegen unter dem Begriff →ConTech zusammengefasst, der die Kurzform für Construction Technology ist.
PropTech-Unternehmen entwickeln oder optimieren Produkte und Dienstleistungen für den Bau- und Immobiliensektor, in dem neueste Informations- und Kommunikationstechnologien angewendet werden, Geschäftsprozesse und/oder Geschäftsmodelle effizienter gestaltet oder technologiebasierte Lösungen entwickelt werden. PropTechs richten sich sowohl an Unternehmen (z. B. im Rahmen von →BIM) als auch an Endverbraucher (z. B. bei →smart Home). PropTech-Firmen und ihre Produkte und Dienstleistungen decken in vielen Fällen den kompletten Lebenszyklus ab – von der Finanzierung und Realisierung von Bau- und Immobilienprojekten bis zur späteren Nutzung und Betreibung der Immobilie bzw. Verwertung durch Vermietung oder Weiterverkauf. Dabei verschwimmen immer öfter die herkömmlichen Abgrenzungen zwischen Planungs- und Finanzierungsträgern, Immobilienverwaltern und Maklern.
Q wie Querschnittstechnologie
Q wie Querschnittstechnologie
→Technologietyp
Querschnittstechnologie
Q wie Querschnittstechnologie
→Technologietyp
R wie RACI-Matrix
R wie RACI-Matrix
Mit RACI-Matrix (auch RACI-Diagramm, RACI-Chart oder Verantwortlichkeitsmatrix) wird eine Technik zur Analyse und Darstellung von Verantwortlichkeiten für einzelne Aufgaben, Meilensteine oder Projektergebnisse bezeichnet. Der Name leitet sich aus den Anfangsbuchstaben der englischen Begriffe
- Responsible (verantwortlich für die eigentliche Durchführung)
- Accountable (rechenschaftspflichtig im Sinne einer Kosten- bzw. Gesamtverantwortung)
- Consulted (konsultiert)
- Informed (Informationsrecht)
ab. Eine RACI-Matrix bietet sich vor allem bei komplexen Projekten mit vielen Entscheidungsträgern und Experten an, wie dies im Innovationsmanagement häufig der Fall ist. Diese Technik soll Fehlentscheidungen vermeiden und Blockaden im Genehmigungsprozess verhindern, die den Gesamterfolg des Projekts beeinträchtigen könnten. In der Regel sollte pro Aktivität nur eine Person (Rolle) accountable und responsible sein. Dagegen können mehrere Personen bei einer Aktivität consulted oder informed sein. Ebenso kann es vorkommen, dass eine Person für eine Aktivität gleichzeitig accountable und responsible ist. Wenn für eine Aktivität keine Person als responsible definiert ist, nennt man dies „Lack of responsibility“. Wenn mehr als eine Person responsible ist, spricht man von „overlap in responsibility“.
RASCI ist eine Erweiterung der RACI-Matrix: das zusätzliche S steht für Support (unterstützend). In Abgrenzung zu C (Consulted), welche primär Wissen beisteuert, wird S (Support) meist als eine Rolle gesehen, die dem R (Responsible) aktiv Arbeit abnimmt (RACI-VS oder VARISC). V steht für Verify – eine Person, die das Ergebnis einer Aktivität gegen bestimmte Akzeptanzkriterien prüft und S steht für Sign-Off – eine Person, die das Ergebnis von V bestätigt und die Auslieferung genehmigt. Die IPCARSED-Matrix ist eine Erweiterung der klassischen RACI-Matrix und besteht aus den folgenden Verantwortlichkeiten: I steht für Initiation, P für Preparation, C für Check oder Consultation, A für Approval, R für Release, S für Supervision, E für Execution und D steht für Distribution. Ebenfalls bekannt ist das IBZED-Schema.
R wie Radikale Innovationen
Radikale Innovationen gehen deutlich weiter als die inkrementellen Innovationen, bei denen die Weiterentwicklung und Optimierung des Bestehenden im Vordergrund steht. Radikale Innovationen werden häufig mit disruptiven Innovationen gleichgesetzt, obwohl es kleine aber wesentliche Unterschiede gibt. Denn bei radikalen Innovationen werden in der Regel neue Ansätze für die Produkt-, Prozess-, Verfahrens-, Vertriebs- oder Geschäftsmodellinnovation innerhalb des bestehenden Segmentes gewählt. Dies unterscheidet radikale Innovationen von disruptiven Innovationen, mit denen Märkte, Branchen oder Angebote nachhaltig verändert oder überflüssig werden, weil komplett neue Angebote geschaffen werden – nicht selten von Quereinsteigern und Startups, die zunächst unbemerkt die Ränder des Marktes bedienen.
Radikale und disruptive Innovationen haben eines gemeinsam: ihnen gehen Phasen voraus, die bei inkrementellen Innovationen nicht vorkommen. Daher gehören radikale (und disruptive) Innovationen zu den anspruchsvollsten Aufgaben im Innovationsmanagement. In der explorativen Phase geht es darum, Kundenbedürfnisse und -bedarfe zu ermitteln und echte Insights zu ermitteln. Diese werden nicht mit Megatrends, sondern mit Zukunftstrends in der jeweiligen Branche abgeglichen und geben eine erste Orientierung. In der assoziativen Phase werden diese Erkenntnisse zusammengeführt und zu Chancenfeldern (früher auch als Suchfelder bezeichnet) verdichtet. Aus diesen Ideen entstehen konkrete Projekte. In der anschließenden offensiven Phase kommt es in der Regel zur Gründung von Startups oder internen agilen Projektteams, in denen in kürzester Zeit Prototypen erstellt werden, um Feedbacks von Kunden und Geschäftspartnern einzuholen und Entwicklungen zu modifizieren und zu optimieren. In dieser Phase werden auch Testmärkte definiert, in denen die Innovation validiert wird. In der integrativen Phase wird das Innovationsprojekt, das bisher außerhalb der bestehenden Strukturen, Prozesse und Abläufe entwickelt wurde, in genau diese integriert. Art und Zeitraum dieser Integration hängen davon ab, ob es sich bei der radikalen Innovation unmittelbar um die Kernkompetenzen eines Unternehmens handelt oder das Unternehmen diese erst aufbauen muss. Gehen diese Prozesse nur einher mit der nachhaltigen Veränderung einer neuen innovativen Unternehmenskultur, muss ein entsprechend langer Zeitraum und die Rahmenbedingungen eingeräumt werden.
Diese vier Phasen sind nicht statisch und nicht linear, sondern iterativ. Erkenntnisse in jeder Phase werden mit der vorherigen Phase abgeglichen und die Ausrichtung immer wieder hinterfragt. Hierbei kann es auch dazu kommen, dass Innovationsprojekte komplett auf null gestellt werden, wenn sich in einer dieser Innovationsphasen herausstellt, dass die Ausrichtung komplett falsch ist oder sich die Rahmenbedingungen in der Zwischenzeit verändert haben. Typisch für die vier Phasen bei der radikalen Innovation ist die Unsicherheit, mögliche Sackgassen und nicht selten Phasen, in denen radikale Innovation kurz vor dem Scheitern stehen. Jede dieser Phasen kann beschleunigt, gesteuert und gemanagt werden, man kann sie aber nicht auslassen oder überspringen.
R wie Red Ocean
Der Begriff Red Ocean fällt häufig im Zusammenhang mit der →Blue-Ocean-Strategie und steht symbolisch für bekannte und größtenteils gesättigte Märkte, in denen ein starker Wettbewerb herrscht. In diesen Märkten gibt es überwiegend Produkte ohne echte Alleinstellungsmerkmale (USP) und wenig Differenzierung, so dass Wettbewerb in erster Linie über Verdrängung stattfindet und in der Regel über den Preis. Der Begriff entstand in Analogie zu einem Ozean, in dem sich viele große und kleine Fische befinden und ums Überleben kämpfen. Große Fische werden hierbei häufig mit Haien und Konzernen gleichgesetzt, die für das eigene Überleben andere – in der Regel kleinere – Fische fressen und sich hierbei das Wasser (Blut)rot färbt. Der Begriff steht für gnadenlosen (bzw. blutigen) Preiskampf; die Red-Ocean-Strategie häufig für eine Wettbewerbsstrategie der Kostenführerschaft.
R wie Remote Sales
→Vertrieb der Zukunft
R wie RFID-Technologie
RFID ist die englische Abkürzung für Radio Frequency Identification und bezeichnet eine Technologie für Sender-Empfänger-Systeme zum automatischen und kontaktlosen Identifizieren und Lokalisieren von Objekten und Lebewesen mit Radiowellen. RFID-Technologie erlaubt nicht nur das Lesen von Informationen eines einmal beschriebenen Datenträgers (wie z. B. bei Barcodes), sondern auch das neue Beschreiben des Datenträgers. Für die Datenübertragung baut das RFID-Schreib-/Lesegerät ein magnetisches oder elektromagnetisches Feld auf, welches den passiven RFID-Transponder (umgangssprachlich auch als Funketikett oder smart Label bezeichnet) mit Energie versorgt. Solange sich der RFID-Transponder im elektromagnetischen Feld des RFID-Schreib-/Lesegeräts befindet, ist dieser mit Energie versorgt, so dass ein Datenaustausch erfolgen kann. Informationen können aus dem Chip des RFID-Transponders gelesen, aber auch neue Daten auf dem Chip hinterlegt, werden. Das Lesegerät enthält eine Software (Mikroprogramm), die den eigentlichen Leseprozess steuert, und eine RFID-Middleware mit Schnittstellen zu weiteren EDV-Systemen.
R wie RHiNO-Prinzip (oder Effekt)
RHiNO ist ein Akronym für Really High value New Opportunity (= eine riesige neue Geschäftschance). Das Problem besteht darin, wenn RHiNOs neue Kunden und/oder neue Aufträge akquirieren, die nichts mit dem aktuellen Geschäftsmodell des Unternehmens zu tun haben. Sobald ein RHiNO die Bühne betritt, besteht die Gefahr, dass sämtliche Strukturen, Prioritäten und Ressourcen über den Haufen geworfen und auf diesen neuen Kunden und/oder Auftrag ausgerichtet werden. Sorgfältige Recherchen, aufwändige Analysen, abgestimmte Pläne und koordinierte Ressourcen lösen sich in Luft auf und es regiert die „operative Hektik“. Das macht RHiNOs im eigentlichen Sinne gefährlich, da in diesen Fällen immer nur der schnelle Umsatz und nicht die Opportunitätskosten betrachtet werden. Gerade in vertriebsorientierten Unternehmen ist es schwierig, RHiNOs zu zähmen, schon gar nicht, wenn der CEO alles dem Diktat des Umsatzes unterordnet. Hierfür gibt es im angelsächsischen Raum ein Sprichwort: „Ein Vogel in der Hand ist zwei im Busch wert“ (mit anderen Worten: der CEO wird möglicherweise die garantierten RHiNO-Einnahmen den konservativ geplanten Umsätzen vorziehen).
R wie Robotik
Als Robotik (auch Robotertechnik) bezeichnet man einen Teilbereich der Ingenieur- und Naturwissenschaften, der Maschinenbau, Elektrotechnik und Informatik (insbesondere von künstlicher Intelligenz) und andere Fachgebiete einschließt. Die Robotik befasst sich mit dem Entwurf, der Konstruktion, dem Betrieb und der Nutzung von Robotern sowie Computersystemen für deren Steuerung, sensorische Rückkopplung und Informationsverarbeitung. Das Themengebiet der Robotik befasst sich mit dem Versuch, das Konzept der Interaktion mit der physischen Welt auf Prinzipien der Informationstechnik sowie auf eine technisch machbare Kinetik zu reduzieren. Der Begriff des „Roboters“ beschreibt dabei eine Entität, welche diese beiden Konzepte in sich vereint, indem sie die Interaktion mit der physischen Welt auf der Basis von Sensoren, Aktoren und Informationsverarbeitung umsetzt. Ziel der Robotik ist es, durch Programmierung ein gesteuertes Zusammenarbeiten von Roboter-Elektronik und Roboter-Mechanik herzustellen.
Auch wenn der Begriff Robotik erst in den letzten Jahren im Zusammenhang mit Industrie 4.0, industrielle Vorfertigung, digitale Innovationen und dgl. stärker in das Bewusstsein gerückt ist, wurde dieser erstmals in den 1940-er von dem Science-Fiction-Autor Isaac Asimov erwähnt. Nach seiner Definition bezeichnet Robotik das Studium von Maschinen und Robotern. Und nachdem auch Hollywood dieses Thema für sich entdeckt hat, werden menschenartige Roboter, die oft über künstliche Intelligenz verfügen, in vielen Filmen (wie z. B. Terminator oder Ex Machina) eingesetzt. Eine zusätzliche, bereits in sehr einfacher Form realisierte Variante des Roboters ist der Cyborg als Verschmelzung von Roboter-Technologie mit der menschlichen Anatomie. Androiden – künstliche menschenähnliche Wesen – können ebenfalls Roboter sein.
Die häufigste Anwendung findet in Form von Industrierobotern statt. Diese werden meist in für Menschen zu gefährlichen oder unzumutbaren Umgebungen eingesetzt. Moderne Roboter erledigen heute stupide Fließbandarbeit schneller und wesentlich genauer als ein Mensch und können ihn in immer mehr Bereichen ersetzen (Automatisierung). Autos werden heutzutage mit starker Beteiligung von Robotern gebaut, und auch ein moderner Mikroprozessor wäre ohne einen Roboter nicht mehr herstellbar. Serviceroboter werden seit einiger Zeit eingesetzt, um den Menschen den Alltag zu erleichtern oder um sie zu unterhalten. Es gibt Haushalts-Roboter, die in der Lage sind, Staub zu saugen, den Boden zu wischen oder den Rasen zu mähen. Sie sind zwar nur auf eine einzige Aufgabe spezialisiert, können diese aber relativ autonom durchführen. Forschungsroboter erkunden unter anderem ferne Planeten oder Katastrophengebiete und dringen in Vulkane oder Abwasserrohre vor. In der Medizin werden Roboter für Untersuchungen, Operationen und Rehabilitation eingesetzt und verrichten einfache Aufgaben im Krankenhausalltag. In Zeiten der Automatisierung und Industrie 4.0 wird die Robotik einen festen Platz einnehmen in der Produktion der Zukunft. Bereits heute wird prognostiziert, dass in spätestens zehn Jahren jede sich häufiger wiederholende Aufgabe potenziell von Robotern erledigt wird. Außerdem sind Roboter durch ihre schnelle und präzise Mechanik in der Lage Teile zu handhaben, die für menschliche Augen oder Finger zu klein sind.
R wie Root-Conflict-Analyse
→Ishikawa-Methode
RACI-Matrix
R wie RACI-Matrix
Mit RACI-Matrix (auch RACI-Diagramm, RACI-Chart oder Verantwortlichkeitsmatrix) wird eine Technik zur Analyse und Darstellung von Verantwortlichkeiten für einzelne Aufgaben, Meilensteine oder Projektergebnisse bezeichnet. Der Name leitet sich aus den Anfangsbuchstaben der englischen Begriffe
- Responsible (verantwortlich für die eigentliche Durchführung)
- Accountable (rechenschaftspflichtig im Sinne einer Kosten- bzw. Gesamtverantwortung)
- Consulted (konsultiert)
- Informed (Informationsrecht)
ab. Eine RACI-Matrix bietet sich vor allem bei komplexen Projekten mit vielen Entscheidungsträgern und Experten an, wie dies im Innovationsmanagement häufig der Fall ist. Diese Technik soll Fehlentscheidungen vermeiden und Blockaden im Genehmigungsprozess verhindern, die den Gesamterfolg des Projekts beeinträchtigen könnten. In der Regel sollte pro Aktivität nur eine Person (Rolle) accountable und responsible sein. Dagegen können mehrere Personen bei einer Aktivität consulted oder informed sein. Ebenso kann es vorkommen, dass eine Person für eine Aktivität gleichzeitig accountable und responsible ist. Wenn für eine Aktivität keine Person als responsible definiert ist, nennt man dies „Lack of responsibility“. Wenn mehr als eine Person responsible ist, spricht man von „overlap in responsibility“.
RASCI ist eine Erweiterung der RACI-Matrix: das zusätzliche S steht für Support (unterstützend). In Abgrenzung zu C (Consulted), welche primär Wissen beisteuert, wird S (Support) meist als eine Rolle gesehen, die dem R (Responsible) aktiv Arbeit abnimmt (RACI-VS oder VARISC). V steht für Verify – eine Person, die das Ergebnis einer Aktivität gegen bestimmte Akzeptanzkriterien prüft und S steht für Sign-Off – eine Person, die das Ergebnis von V bestätigt und die Auslieferung genehmigt. Die IPCARSED-Matrix ist eine Erweiterung der klassischen RACI-Matrix und besteht aus den folgenden Verantwortlichkeiten: I steht für Initiation, P für Preparation, C für Check oder Consultation, A für Approval, R für Release, S für Supervision, E für Execution und D steht für Distribution. Ebenfalls bekannt ist das IBZED-Schema.
Radikale Innovationen
R wie Radikale Innovationen
Radikale Innovationen gehen deutlich weiter als die inkrementellen Innovationen, bei denen die Weiterentwicklung und Optimierung des Bestehenden im Vordergrund steht. Radikale Innovationen werden häufig mit disruptiven Innovationen gleichgesetzt, obwohl es kleine aber wesentliche Unterschiede gibt. Denn bei radikalen Innovationen werden in der Regel neue Ansätze für die Produkt-, Prozess-, Verfahrens-, Vertriebs- oder Geschäftsmodellinnovation innerhalb des bestehenden Segmentes gewählt. Dies unterscheidet radikale Innovationen von disruptiven Innovationen, mit denen Märkte, Branchen oder Angebote nachhaltig verändert oder überflüssig werden, weil komplett neue Angebote geschaffen werden – nicht selten von Quereinsteigern und Startups, die zunächst unbemerkt die Ränder des Marktes bedienen.
Radikale und disruptive Innovationen haben eines gemeinsam: ihnen gehen Phasen voraus, die bei inkrementellen Innovationen nicht vorkommen. Daher gehören radikale (und disruptive) Innovationen zu den anspruchsvollsten Aufgaben im Innovationsmanagement. In der explorativen Phase geht es darum, Kundenbedürfnisse und -bedarfe zu ermitteln und echte Insights zu ermitteln. Diese werden nicht mit Megatrends, sondern mit Zukunftstrends in der jeweiligen Branche abgeglichen und geben eine erste Orientierung. In der assoziativen Phase werden diese Erkenntnisse zusammengeführt und zu Chancenfeldern (früher auch als Suchfelder bezeichnet) verdichtet. Aus diesen Ideen entstehen konkrete Projekte. In der anschließenden offensiven Phase kommt es in der Regel zur Gründung von Startups oder internen agilen Projektteams, in denen in kürzester Zeit Prototypen erstellt werden, um Feedbacks von Kunden und Geschäftspartnern einzuholen und Entwicklungen zu modifizieren und zu optimieren. In dieser Phase werden auch Testmärkte definiert, in denen die Innovation validiert wird. In der integrativen Phase wird das Innovationsprojekt, das bisher außerhalb der bestehenden Strukturen, Prozesse und Abläufe entwickelt wurde, in genau diese integriert. Art und Zeitraum dieser Integration hängen davon ab, ob es sich bei der radikalen Innovation unmittelbar um die Kernkompetenzen eines Unternehmens handelt oder das Unternehmen diese erst aufbauen muss. Gehen diese Prozesse nur einher mit der nachhaltigen Veränderung einer neuen innovativen Unternehmenskultur, muss ein entsprechend langer Zeitraum und die Rahmenbedingungen eingeräumt werden.
Diese vier Phasen sind nicht statisch und nicht linear, sondern iterativ. Erkenntnisse in jeder Phase werden mit der vorherigen Phase abgeglichen und die Ausrichtung immer wieder hinterfragt. Hierbei kann es auch dazu kommen, dass Innovationsprojekte komplett auf null gestellt werden, wenn sich in einer dieser Innovationsphasen herausstellt, dass die Ausrichtung komplett falsch ist oder sich die Rahmenbedingungen in der Zwischenzeit verändert haben. Typisch für die vier Phasen bei der radikalen Innovation ist die Unsicherheit, mögliche Sackgassen und nicht selten Phasen, in denen radikale Innovation kurz vor dem Scheitern stehen. Jede dieser Phasen kann beschleunigt, gesteuert und gemanagt werden, man kann sie aber nicht auslassen oder überspringen.
Red Ocean
R wie Red Ocean
Der Begriff Red Ocean fällt häufig im Zusammenhang mit der →Blue-Ocean-Strategie und steht symbolisch für bekannte und größtenteils gesättigte Märkte, in denen ein starker Wettbewerb herrscht. In diesen Märkten gibt es überwiegend Produkte ohne echte Alleinstellungsmerkmale (USP) und wenig Differenzierung, so dass Wettbewerb in erster Linie über Verdrängung stattfindet und in der Regel über den Preis. Der Begriff entstand in Analogie zu einem Ozean, in dem sich viele große und kleine Fische befinden und ums Überleben kämpfen. Große Fische werden hierbei häufig mit Haien und Konzernen gleichgesetzt, die für das eigene Überleben andere – in der Regel kleinere – Fische fressen und sich hierbei das Wasser (Blut)rot färbt. Der Begriff steht für gnadenlosen (bzw. blutigen) Preiskampf; die Red-Ocean-Strategie häufig für eine Wettbewerbsstrategie der Kostenführerschaft.
Remote Sales
R wie Remote Sales
→Vertrieb der Zukunft
RFID-Technologie
R wie RFID-Technologie
RFID ist die englische Abkürzung für Radio Frequency Identification und bezeichnet eine Technologie für Sender-Empfänger-Systeme zum automatischen und kontaktlosen Identifizieren und Lokalisieren von Objekten und Lebewesen mit Radiowellen. RFID-Technologie erlaubt nicht nur das Lesen von Informationen eines einmal beschriebenen Datenträgers (wie z. B. bei Barcodes), sondern auch das neue Beschreiben des Datenträgers. Für die Datenübertragung baut das RFID-Schreib-/Lesegerät ein magnetisches oder elektromagnetisches Feld auf, welches den passiven RFID-Transponder (umgangssprachlich auch als Funketikett oder smart Label bezeichnet) mit Energie versorgt. Solange sich der RFID-Transponder im elektromagnetischen Feld des RFID-Schreib-/Lesegeräts befindet, ist dieser mit Energie versorgt, so dass ein Datenaustausch erfolgen kann. Informationen können aus dem Chip des RFID-Transponders gelesen, aber auch neue Daten auf dem Chip hinterlegt, werden. Das Lesegerät enthält eine Software (Mikroprogramm), die den eigentlichen Leseprozess steuert, und eine RFID-Middleware mit Schnittstellen zu weiteren EDV-Systemen.
RHiNO-Prinzip (oder Effekt)
R wie RHiNO-Prinzip (oder Effekt)
RHiNO ist ein Akronym für Really High value New Opportunity (= eine riesige neue Geschäftschance). Das Problem besteht darin, wenn RHiNOs neue Kunden und/oder neue Aufträge akquirieren, die nichts mit dem aktuellen Geschäftsmodell des Unternehmens zu tun haben. Sobald ein RHiNO die Bühne betritt, besteht die Gefahr, dass sämtliche Strukturen, Prioritäten und Ressourcen über den Haufen geworfen und auf diesen neuen Kunden und/oder Auftrag ausgerichtet werden. Sorgfältige Recherchen, aufwändige Analysen, abgestimmte Pläne und koordinierte Ressourcen lösen sich in Luft auf und es regiert die „operative Hektik“. Das macht RHiNOs im eigentlichen Sinne gefährlich, da in diesen Fällen immer nur der schnelle Umsatz und nicht die Opportunitätskosten betrachtet werden. Gerade in vertriebsorientierten Unternehmen ist es schwierig, RHiNOs zu zähmen, schon gar nicht, wenn der CEO alles dem Diktat des Umsatzes unterordnet. Hierfür gibt es im angelsächsischen Raum ein Sprichwort: „Ein Vogel in der Hand ist zwei im Busch wert“ (mit anderen Worten: der CEO wird möglicherweise die garantierten RHiNO-Einnahmen den konservativ geplanten Umsätzen vorziehen).
Robotik
R wie Robotik
Als Robotik (auch Robotertechnik) bezeichnet man einen Teilbereich der Ingenieur- und Naturwissenschaften, der Maschinenbau, Elektrotechnik und Informatik (insbesondere von künstlicher Intelligenz) und andere Fachgebiete einschließt. Die Robotik befasst sich mit dem Entwurf, der Konstruktion, dem Betrieb und der Nutzung von Robotern sowie Computersystemen für deren Steuerung, sensorische Rückkopplung und Informationsverarbeitung. Das Themengebiet der Robotik befasst sich mit dem Versuch, das Konzept der Interaktion mit der physischen Welt auf Prinzipien der Informationstechnik sowie auf eine technisch machbare Kinetik zu reduzieren. Der Begriff des „Roboters“ beschreibt dabei eine Entität, welche diese beiden Konzepte in sich vereint, indem sie die Interaktion mit der physischen Welt auf der Basis von Sensoren, Aktoren und Informationsverarbeitung umsetzt. Ziel der Robotik ist es, durch Programmierung ein gesteuertes Zusammenarbeiten von Roboter-Elektronik und Roboter-Mechanik herzustellen.
Auch wenn der Begriff Robotik erst in den letzten Jahren im Zusammenhang mit Industrie 4.0, industrielle Vorfertigung, digitale Innovationen und dgl. stärker in das Bewusstsein gerückt ist, wurde dieser erstmals in den 1940-er von dem Science-Fiction-Autor Isaac Asimov erwähnt. Nach seiner Definition bezeichnet Robotik das Studium von Maschinen und Robotern. Und nachdem auch Hollywood dieses Thema für sich entdeckt hat, werden menschenartige Roboter, die oft über künstliche Intelligenz verfügen, in vielen Filmen (wie z. B. Terminator oder Ex Machina) eingesetzt. Eine zusätzliche, bereits in sehr einfacher Form realisierte Variante des Roboters ist der Cyborg als Verschmelzung von Roboter-Technologie mit der menschlichen Anatomie. Androiden – künstliche menschenähnliche Wesen – können ebenfalls Roboter sein.
Die häufigste Anwendung findet in Form von Industrierobotern statt. Diese werden meist in für Menschen zu gefährlichen oder unzumutbaren Umgebungen eingesetzt. Moderne Roboter erledigen heute stupide Fließbandarbeit schneller und wesentlich genauer als ein Mensch und können ihn in immer mehr Bereichen ersetzen (Automatisierung). Autos werden heutzutage mit starker Beteiligung von Robotern gebaut, und auch ein moderner Mikroprozessor wäre ohne einen Roboter nicht mehr herstellbar. Serviceroboter werden seit einiger Zeit eingesetzt, um den Menschen den Alltag zu erleichtern oder um sie zu unterhalten. Es gibt Haushalts-Roboter, die in der Lage sind, Staub zu saugen, den Boden zu wischen oder den Rasen zu mähen. Sie sind zwar nur auf eine einzige Aufgabe spezialisiert, können diese aber relativ autonom durchführen. Forschungsroboter erkunden unter anderem ferne Planeten oder Katastrophengebiete und dringen in Vulkane oder Abwasserrohre vor. In der Medizin werden Roboter für Untersuchungen, Operationen und Rehabilitation eingesetzt und verrichten einfache Aufgaben im Krankenhausalltag. In Zeiten der Automatisierung und Industrie 4.0 wird die Robotik einen festen Platz einnehmen in der Produktion der Zukunft. Bereits heute wird prognostiziert, dass in spätestens zehn Jahren jede sich häufiger wiederholende Aufgabe potenziell von Robotern erledigt wird. Außerdem sind Roboter durch ihre schnelle und präzise Mechanik in der Lage Teile zu handhaben, die für menschliche Augen oder Finger zu klein sind.
Root-Conflict-Analyse
R wie Root-Conflict-Analyse
→Ishikawa-Methode
S wie SaaS (Software-as-a-Service)
S wie SaaS (Software-as-a-Service)
Software als Service (kurz SaaS) ist ein Service des →Cloud-Computing. Hierbei wird Unternehmen Software bereit gestellt, die nicht lokal auf dem Computer installiert ist, sondern über eine Internetverbindung (Cloud) zur Verfügung gestellt wird. Unternehmen nehmen lediglich die Funktionen der Software von außen in Anspruch. Bekannte Anwendungen sind z. B. von Microsoft (Microsoft 365) und Adobe (Creative). Aber auch E-Mail-Provider und diverse CRM-Lösungen funktionieren auf dieser Basis. Nutzer legen individuelle Accounts an und anfallende Kosten werden monatlich oder jährlich abgerechnet. Bereitstellung, Wartung und Aktualisierung der Programme liegen direkt beim Anbieter. Andere Services des Cloud-Computing umfassen u. a. Infrastructure as a Service (→IaaS) und Platform as a Service (→PaaS).
S wie SAM
SAM ist ein Akronym für den englischen Begriff Serviceable Available Market oder Served Available Market und grenzt im weiteren Sinne das theoretisch mögliche Marktpotenzial (→TAM) gezielt ein, um einen realistischen Potenzialmarkt zu definieren. SAM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren. Eine Eingrenzung kann temporär oder regional stattfinden oder sich auf Marktsegmente und/oder Zielgruppen beziehen. SAM geht im Gegensatz zum →SOM immer noch davon aus, dass es innerhalb dieser Segmentierung keinerlei externe Einschränkungen durch Wettbewerb oder dgl. gibt, so dass ein Marktanteil von 100% in dieser Nische möglich wäre. Zum Teil werden im SAM bereits interne Ressourcen berücksichtigt.
S wie Schlüsseltechnologie
→Technologietyp
S wie Schrittmachertechnologie
→Technologietyp
S wie Schutzrechte
Gewerbliche Schutzrechte dienen dem Schutz eines Erfinders und/oder Urhebers vor unerlaubter Kopie und Nachahmung. Er erwirbt damit das vorübergehende Monopol für die gewerbliche Nutzung seiner Erfindung oder kreativen Schöpfung und somit eine Alleinstellung oder zumindest herausgehobene Position am Markt. Der Erfinder und/oder Urheber entscheidet, wer seine Erfindung oder kreative Schöpfung nutzen und verwerten darf und kann dies anderen untersagen. Er allein hat die Verfügungsgewalt über das mögliche kommerzielle Potenzial. Diese sichert nicht nur Wettbewerbsvorteile und eine starke Marktposition, sondern auch die Möglichkeit, die zum Teil hohen Entwicklungskosten wieder einzufahren. Um Innovationen und andere technische Entwicklungen sowie Marken oder andere kreative Schöpfungen vor wertschädigenden Angriffen zu schützen, werden von Ämtern und Behörden verbriefte Schutzrechte verwendet. Durch ihre Veröffentlichung wird außerdem verhindert, dass der technische Fortschritt durch Geheimhaltung gebremst wird. Gewerbliche Schutzrechte wirken daher in mehrere Richtungen.
Gewerbliche Schutzrechte gelten für einen festgelegten Zeitraum, in einem klar bestimmten Territorium und in einem konkreten Anwendungsgebiet. Das so erworbene Exklusivrecht hat den Vorteil, dass Nachahmer ausgeschlossen werden und die eigene Innovation und/oder kreative Schöpfung gestärkt wird. Allerdings ist Schutzrecht nicht gleich Schutzrecht und nicht jedes wirkt in der gleichen Form. Einige wirken durch Veröffentlichung, andere wiederum müssen beantragt, genehmigt und veröffentlicht werden. Es gibt verschiedene Schutzarten für geistiges Eigentum wie Verfahren, Produkte oder auch Dienstleistungen – international als intellectual property (IP) bezeichnet.
Patente und Gebrauchsmuster gelten für technische Erfindungen, die sich durch ihre Neuheit auszeichnen und Anwendung in einem Gewerbe finden. Der Unterschied zwischen einem Patent (20 Jahre) und einem Gebrauchsmuster (10 Jahre) liegt zum einen in der Schutzdauer. Zum anderen werden Gebrauchsmuster im Unterschied zu Patenten bei ihrer Anmeldung nur formal kontrolliert. Dies bedeutet, dass der Grad der Erfindung beschrieben wird und formellen Vorgaben entsprechen muss, aber keine inhaltliche Prüfung oder Recherche gegenüber anderen Erfindungen erfolgt. Markenrechte dienen dem Schutz von Wort- und/oder Bildmarken in Form von Worten, Buchstaben, Schriftarten, Logos, Zahlen usw. Diese werden in einem Markenregister eingetragen. Darüber hinaus können auch außergewöhnliche Farb- und/oder Formgestaltung von Produkten oder Dienstleistungen geschützt werden. Hierzu lässt man das Design schützen. Das Urheberrecht schützt die Urheber von Werken der Literatur, Wissenschaft und Kunst. Im Unterschied zu den bisher genannten Schutzrechten muss das Urheberrecht nicht beantragt werden. Es entsteht automatisch, wenn das Werk veröffentlicht oder der Nachweis über seine Schöpfung erbracht wurde. Gewerblicher Rechtsschutz kann auch durch das Wettbewerbsrecht erzielt werden (Nachahmungsschutz).
S wie Schwarmdummheit
Schwarmdummheit ist der Versuch, einen methodischen Gegenentwurf zum Phänomen der Schwarmintelligenz zu definieren. So wie mehrfach nachgewiesen wurde, dass Menschen in einer Gruppe gemeinsam bessere Entscheidungen treffen können als ein Mensch allein, haben Experimente eben auch mehrfach bewiesen, dass diese Weisheit der Vielen schnell auch in Schwarmdummheit umschlagen kann. Ursache ist typisch menschliches Herdenverhalten, wenn Menschen mitbekommen, dass andere über eine Aufgabe anders denken als sie selbst, verunsichert sind und teilweise ihre eigene Meinung ändern, um nicht ggf. isoliert zu sein. Experimente belegen, dass sozialer Einfluss vor allem die Diversität von Antworten verringert, nicht jedoch den kollektiven Fehler. Das Phänomen der Schwarmdummheit tritt in der Regel in mittleren bis größeren Unternehmen auf und ganz besonders häufig in Organisationen, in denen das Management keine klaren Entscheidungen trifft. Hinzu kommt, dass in einem schwarmdummen System das Logische, Nachvollziehbare und Vernünftige oftmals diskriminiert, ausgegrenzt und als schlecht und/oder negativ dargestellt wird. Durch den Druck innerhalb der Gruppe beginnt häufig ein Vortäuschen von Kompetenzen und Leistungen, wodurch eine Abwärtsspirale entsteht. Typische Anzeichen für schwarmdumme Systeme sind u. a. Überlastung und Überschätzung, Opportunismus, persönliche Interpretationen von Statistiken, Ignoranz und Blindheiten gegenüber Veränderungen, zwanghafte Anwendung von Regeln, die kopflose Umsetzung neuer Hypes oder sinnbefreite Anwendung von Managementtechniken usw.
S wie Schwarmintelligenz
Schwarmintelligenz (engl. swarm intelligence) ist ein Begriff, der häufig im Zusammenhang mit Innovationen, Innovationsmanagement und Open Innovation genannt wird. Der Begriff (auch als Gruppenintelligenz oder kollektive Intelligenz bezeichnet) tauchte erstmals in den 1980-er Jahren im Zusammenhang mit Robotik auf. Schwarmintelligenz ist ein emergentes Phänomen, bei dem Gruppen von Individuen gemeinsam kollektive Entscheidungen treffen und durch Kollaboration bessere Ergebnisse erzielen, als dies einzelne im Team könnten. Auch für selbst organisierende Gruppen, die durch intensive Kommunikation untereinander integriert sind und so sogar eine Individualität höherer Ordnung (einen so genannten „Superorganismus“) bilden können, wird der Begriff der kollektiven Intelligenz verwendet. Alle Ansätze haben eines gemeinsam; eine dezentrale, nicht-hierarchisch organisierte Entscheidungsstruktur. Zur Erklärung dieses Phänomens existieren verschiedene systemtheoretische, soziologische und philosophische Ansätze.
Schwarmintelligenz tritt in drei verschiedenen Versionen auf:
- die kollektive Intelligenz eines Schwarms
- die individuelle Intelligenz einzelner innerhalb eines Schwarms
- die kreative Schwarmintelligenz
Bei der kollektiven Schwarmintelligenz trifft eine Gruppe aufgrund von Wissen, Erfahrungen, Vermutungen oder Perspektiven gemeinsam eine Entscheidung (Gesetz der Statistik). Die Intelligenz des Einzelnen im Schwarm setzt darauf, dass sich innerhalb einer Gruppe von Menschen der eine Experte befindet, der das zur Lösung einer Aufgabe notwendige Fachwissen besitzt. Die kreative Schwarmintelligenz kommt bei Konzepten wie Co-creation und Ideenwettbewerben zum Einsatz. Der Schwarm wird nicht mit einer Frage konfrontiert, sondern mit einer kreativen Aufgabenstellung. Durch die Diskussion und Bewertung unterschiedlicher Herangehensweisen entstehen Ideen, die durch Inspirationen und Kompetenzen aller geprägt sind. Diese Form der Schwarmintelligenz wird auch Social Collaboration genannt. Im Gegensatz zu Teamwork, wo ein Team eine klar definierte Gruppe von Menschen umfasst, treffen sich bei der kreativen Schwarmintelligenz temporäre Gruppen z. B. auf entsprechenden Onlineplattformen.
Schwarmintelligenz ist ebenfalls ein Forschungsfeld der künstlichen Intelligenz, bei der nach dem Vorbild von staatenbildender Insekten wie z. B. Ameisen, Bienen und Termiten sowie teilweise auch Vogelschwärmen (Schwarmverhalten) Softwaresysteme modelliert werden. Man spricht auch symmetrisch verteilten Algorithmen. Die KI-Forschung geht davon aus, dass die Kooperation künstlicher Agenten eine höhere kognitive Leistung simulieren kann („The Society of Mind“). Für die Kommunikation zwischen den Software-Agenten wird häufig die Knowledge Query and Manipulation Language (KQML) eingesetzt. Forscher an der Princeton University befassen sich seit 1988 mit dem Phänomen der kollektiven Wahrnehmung von Menschen und haben hierzu Messstationen auf der ganzen Welt stationiert. Das „Global Consciousness Project“ sammelt die empirischen Daten und vergleicht diese mit der Nachrichtenlage. Hierbei wird analysiert, ob ein Ereignis bereits neuronale Reaktionen hervorruft, bevor diese Nachricht überhaupt verbreitet wurde.
S wie Scrum
Agilität und Scrum werden häufig synonym verwendet, obwohl es Unterschiede gibt. Während Agilität eine Denk- und Arbeitsweise darstellt und die Unternehmenskultur prägt, handelt es sich bei Scrum um ein heuristisches Framework zur Entwicklung komplexer Produkte und Dienstleistungen, das auf inkrementelle, empirische und iterative Vorgehensweise in kurzen Lernschleifen setzt und die Zusammenarbeit in Teams unterstützt. Scrum (englisch für „Gedränge“) ist eine methodische Vorgehensweise im agilen Projektmanagement und wurde in den 1990-er Jahren ursprünglich in der Softwaretechnik entwickelt. Das Rahmenwerk definiert Tools und Rollen, Planungs- und Arbeitsergebnisse, Meetings und Ereignisse sowie das Zusammenspiel dieser Elemente. Scrum ist keine Prozessvorgabe, sondern stellt als Rahmenwerk quasi die Spielregeln auf. Die Regeln sind im Scrum Guide beschrieben sowie in einer Kurzdarstellung im Agile Atlas.
Die konkrete Arbeitsweise wird von den Anwendern von Scrum innerhalb dieses Rahmens selbst definiert. Durch den flexiblen Prozess, der das Festlegen neuer Prioritäten erlaubt, sowie kurze Release-Zyklen können Teams fortlaufend dazulernen und sich verbessern. Somit kann die konkrete Umsetzung des Frameworks an die individuellen Anforderungen eines Unternehmens angepasst werden.
Scrum verkörpert die Werte der agilen Softwareentwicklung, die 2001 im agilen Manifest von Ken Schwaber, Jeff Sutherland und anderen formuliert wurden:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlungen.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.
In Scrum wird neben dem Produkt auch die Planung iterativ und inkrementell entwickelt. Der langfristige Plan (das Product Backlog) wird kontinuierlich verfeinert und verbessert. Der Detailplan (das Sprint Backlog) wird nur für den jeweils nächsten Zyklus (den Sprint) erstellt. Damit wird die Projektplanung auf das Wesentliche fokussiert. Das Scrum Framework kennt drei Führungsverantwortungen: Product Owner, Entwickler und Scrum Master.
S wie Shallow Work
→Deep Work Hypothese
S wie 6-Hüte-Methode
Die 6-Hüte-Methode wurde 1986 von Edward de Bono entwickelt. Diese Kreativitätstechnik wird deshalb auch als „Denkhüte von De Bono“ (engl. Six Thinking Hats) bezeichnet und kann sowohl zur Ideenfindung in einem Kreativitätsworkshop als auch in einem strukturierten Prozess im Innovationsmanagement eingesetzt werden. Die Methode beinhaltet sechs verschiedene Rollen und Blickwinkel, die nach Farben benannt sind: Weiß, Rot, Schwarz, Gelb, Grün und Blau. Diese werden durch Hüte repräsentiert und entsprechen bestimmten Perspektiven. Die Teilnehmer schlüpfen gemeinsam abwechselnd in diese Rollen und beleuchten die Aufgabe, Ausgangssituation oder Problemstellung aus der jeweiligen Perspektive. Die Methode kommt zum Einsatz, wenn neue Ideen entwickelt, bewertet und verbessert werden sollen, zur Lösung von komplexen Problemstellungen oder auch im Rahmen der Konfliktbewältigung, da Teilnehmer unter dem Deckmantel der „Rolle“ ihre eigene Sicht nur bedingt preisgeben müssen. Man kann den Effekt dadurch verstärken, wenn die Teilnehmer echte Hüte in sechs verschiedenen Farben aufsetzen. Alternativ können auch Karten oder sonstige Gegenstände in sechs Farben verwendet werden, mit denen die verschiedenen Rollen symbolisiert werden, wobei die Wirkung dann nicht so stark ist. Die Farben dienen hierbei nicht der optischen Unterscheidung, sondern haben jeweils eine zugewiesene Bedeutung:
- Weiß steht für neutrales, analytisches Denken. „Träger“ des weißen Denkhutes beschäftigen sich nur mit Zahlen, Daten und Fakten und vermeiden es, sich eine subjektive Meinung zu bilden oder zu bewerten.
- Rot symbolisiert subjektives, emotionales Denken. Teilnehmer in dieser Rolle bilden sich eine persönliche Meinung und betrachten positive wie negative Gefühle, wobei auch Widersprüche auftreten dürfen.
- Schwarz repräsentiert den pessimistischen Kritiker, der sich objektiv auf negative Aspekte konzentriert. „Träger“ des schwarzen Denkhutes denken an Risiken, Nachteile und Einwände.
- Gelb steht für den Gegensatz zum Kritiker in schwarz. Der „Träger“ des gelben Denkhutes sammelt positive Argumente und verkörpert den realistischen Optimismus. Er denkt in objektiven Chancen und Vorteilen.
- Grün steht für Innovation, Fortschritt und Assoziation. Teilnehmer in dieser Rolle ist vorbehalten, neue Ideen zu entwickeln und kreative Vorschläge zu produzieren. Kritik oder Bewertung sind fehl am Platz: es gibt keine Denkverbote.
- Blau sorgt für Struktur und Ordnung, Durch- und Überblick. Die Aufgabe der „Träger“ des blauen Denkhutes bestehen darin, Ideen und Gedanken zu sortieren und zu strukturieren.
Anschließend wechseln die Teilnehmer die Farbe („der Hüte“) nach einer vorher festgelegten Reihenfolge bis alle Teilnehmer jede Rolle einmal eingenommen haben. Abschließend werden die entstandenen Ideen, Vorschläge und Gedanken diskutiert und bewertet. Die 6-Hüte-Methode verhindert eine einseitige Betrachtung aus einem Blickwinkel und eröffnet die Möglichkeit, verschiedene Rollen und Perspektiven einzunehmen, um sich besser in den Standpunkt eines anderen hineinversetzen zu können.
S wie 6W-Fragen-Methode
Die 6W-Fragen-Methode ist eine spezielle Fragetechnik, mit der entweder eine grundsätzliche Übersicht oder ein tieferes Verständnis zu einem Thema geschaffen wird. Diese ist vor allem dann zu empfehlen, wenn Kontext und Umstände noch sehr neu sind und wenige Informationen darüber vorliegen. Die Methode besteht aus sechs „W“-Fragen, mit der herausgefunden wird, ob bereits ausreichend Informationen zu einem Thema (oder Problem) vorliegen oder tiefer in dieses eingestiegen werden muss. Einer der häufigsten Fehler in einem zielführenden Kreativprozess oder Innovationsmanagement besteht darin, dass der Problemraum „umgangen“ oder „übersprungen“ wird und alle Beteiligten glauben, das Problem oder die Thematik ausreichend verstanden zu haben. Die Folge sind eine nicht zielführende Lösung sowie Verschwendung von Ressourcen. Durch die Anwendung der 6W-Fragen-Methode soll dies vermieden werden. Behandelt werden die Fragen
- Wer? wie z. B. wer ist beteiligt, wer ist betroffen, wer profitiert oder wer ist der Entscheider? Durch diese Frage werden die involvierten Personen sichtbar und zeigen sich mögliche Überschneidungen, Gemeinsamkeiten aber auch gegensätzliche Positionen und Interessen. Dies ermöglicht ein aktives Touchpoint-Management in einem Projekt und steuert die Kommunikationsstrategie.
- Warum? wie z. B. warum ist ein Thema oder eine Sache überhaupt ein Problem oder warum ist die Lösung desselben wichtig? Bei der Frage geht es um Gründe und Ursachen sowie der Qualifizierung und Quantifizierung eines Problems. Denn in erster Linie hinterfragt diese Frage nicht nur das „warum“, sondern auch das „ob überhaupt“. Gleichzeitig arbeitet diese Frage heraus, was passiert, wenn das Problem nicht behoben wird.
- Was? wie z. B. was ist bekannt oder was ist nicht bekannt stellt zunächst den Inhalt in den Mittelpunkt. Fragen wie „was wurde bereits unternommen“ analysieren die Historie oder „was wäre ideal“ zielen bereits auf Lösungen hin. Im Ergebnis geht es um Aktivitäten und Ereignisse.
- Wann? wie z. B. „wann begann das Problem“ oder „seit wann besteht es“ stellt den Zeitpunkt in den Mittelpunkt. Allerdings wird nicht nur die Vergangenheit im Sinne der Ursachenfindung hinterfragt, da mögliche Fragen auch lauten können „Wann muss etwas verändert werden“ und somit zukunftsgerichtet sind und die Lösungsperspektive betrachten.
- Wo? wie z. B. „wo tritt das Problem auf“ stellt den Ort in den Mittelpunkt, allerdings nicht nur den Ort, wo ein Problem erkannt wurde oder aufgetreten ist, sondern auch den, wo ein Problem gelöst wurde oder zu lösen ist.
- Wie? wie z. B. „wie kann das Problem gelöst werden?“ oder „wie könnte eine Lösung aussehen“ zielen eher auf die Art und Weise der Lösungsfindung ab, hingegen Fragen wie z. B. „wie fühlen sich die Beteiligten?“ eher die Gefühlslage der Beteiligten mit einbezieht. „Wie“ als Fragewort ist sehr mächtig und wird durch die Kombination mit Zusätzen wie z. B. „wie oft“, „wie lange“ oder „wie viel“ in seiner Wirkung verstärkt.
Die 6W-Fragen-Methode ist ein Beispiel dafür, dass Methoden auch sehr einfach und dennoch effizient sein können. Die Fragetechnik hilft ein Thema zu verstehen, zu strukturieren und indirekt auch zu lösen.
S wie Selbstdisruption
Das Wort „Disruption“ leitet sich vom Englischen „to disrupt“ ab und bedeutet so viel wie stören (zerstören), unterbrechen, spalten, zersprengen oder aufbrechen. →Disruptive Innovationen sorgen dafür, dass bestehende Gesetzmäßigkeiten, Mechanismen, Strukturen und Prozesse aufgebrochen und unter Umständen zerstört werden. Das neue Produkt, die neue Dienstleistung oder das neue Geschäftsmodell ist in der Regel einfacher, schneller, günstiger oder bequemer und löst die bisherige etablierte Lösung ab. Den Markt „auf den Kopf stellen“ ist das Synonym für disruptive Innovationen. Revolution statt Evolution lautet das Motto. Daraus abgeleitet beschreibt der Begriff „Selbstdisruption“, wenn Unternehmen mit ihren disruptiven Innovationen nicht nur den Markt radikal verändern, sondern sich selbst Wettbewerb machen. Bei der Selbstdisruption werden Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells. Apple hat wiederholt den Mut dazu bewiesen: beim iPhone, das dem iPod Marktanteile geraubt hat, und beim iPad, das die Umsätze des Mac Computers kannibalisierte. Und mit Smart Glasses steht die nächste Selbstdisruption an, die das Smartphone überflüssig machen wird.
S wie Service Design
Der Begriff Service Design beschreibt den methodischen Prozess der Entwicklung und Gestaltung von marktgerechten und kundenorientierten Services und Dienstleistungen. Hierbei nimmt Service Design eine wichtige Schnittstelle der verschiedenen Systeme und Beteiligten ein. Dies betrifft sowohl die Kommunikation zwischen den intern beteiligten und/oder extern betroffenen Menschen als auch die benötigten Mittel und Prozesse. Mit Hilfe spezifischer Methoden werden in mehreren Phasen eines aufgeteilten Prozesses die Schnittstellen der Interaktion zwischen Anbieter (in der Regel Unternehmen) und Empfänger (in der Regel Kunde) aufgezeigt, bewertet und in ein „Service-Produkt“ umgewandelt. Der methodische Prozess dient unter anderem dazu, dokumentierbare Ergebnisse zu erhalten, die im Folgenden eine Basis für die Weiterentwicklung des Service bieten. Dabei werden verschiedene empirische oder kreative Methoden verwendet, um Nutzeranforderungen, Rollenmodelle, Service-Ergonomie und Marktfähigkeit des Service zu berücksichtigen.
Der Prozess (oder Service Design Sprint) lässt sich in der Regel in fünf Phasen unterteilen:
- Forschungsphase: Mikro- und Makroumfeld werden definiert, Zielgruppen und Ziele der Dienstleistung definiert und bewertet.
- Problemidentifikation: Probleme und Möglichkeiten werden festgestellt. Hierzu werden in der Regel Buyer Personas sowie Customer Journey Maps entwickelt. Außerdem empfiehlt sich eine Stakeholder Map, um das gesamte Ökosystem und die Supply Chain einer Dienstleistung zu betrachten.
- Ideenfindung und -auswahl: Entwicklung verschiedener Lösungsansätze der vorher definierten Probleme.
- Prototyping und Entwicklung: ausgewählte Ideen werden zu Prototypen umgewandelt um zu testen, ob diese umsetzbar sind und so funktionieren, wie es erwartet wurde.
- Implementierung: Finalisierung der Prototypen und Einbindung in den Service. Service Design hat die Aufgabe, die Wirkung zu überprüfen und zu optimieren.
Der Service Design Prozess verläuft iterativ. Immer mehr Touchpoints sind digital. Ein Großteil der Interaktion erfolgt über technische Geräte wie Mobile Devices oder Touchscreens im öffentlichen Raum. Allerdings darf man digitale Services nicht nur auf die Technologie beziehen. Denn Service Design betrifft nicht nur das Gestalten von Interfaces und User Experience, sondern umfasst auch Prozesse, Strukturen und Organisationsmodelle innerhalb von Unternehmen. Es bildet eine Schnittstelle zwischen Business zwischen Vertrieb, Marketing, Design und Technologie sowie der gesamten Supply Chain. Dem entsprechend verbindet Service Design viele Disziplinen wie Produktdesign, User Experience Design, Interaction Design, Grafikdesign, Interior Design, Architektur, Datenanalyse, Ethnografie und dgl. Die wichtigsten Eigenschaften eines Servicedesigners liegen allerdings in der Empathie, dem Einfühlungsvermögen und einem ausgeprägten Zielgruppenverständnis, um die Bedürfnisse, Treiber, Motivationen und Probleme der späteren Nutzer zu erkennen.
Service Design ist kundenzentriert und lösungsorientiert, nachhaltig und ganzheitlich zu sehen sowie methodisch, systemisch und interdisziplinär in der Umsetzung. Durch die Interaktion mit dem Kunden, der permanenten Weiterentwicklung von Technologie sowie Automation von Prozessen zwischen Unternehmen und innerhalb der eigenen Organisation kommen im Service Design agilen Methoden zum Einsatz, da der Prozess aus Idee und Konzept, Design und Entwicklung sowie Validierung und Implementierung nicht linear verläuft, sondern iterativ. Infolgedessen muss auch der Methodenkoffer geeignet sein und immer individuell angepasst werden. Hierzu gehören verschiedene Service Design Tools wie z. B. Buyer Personas, Customer Journey Maps, User Flows, Service Blueprinting und natürlich Rapid Prototyping sowie User Experience und Usability Testing. Nur so können Probleme und Bedürfnisse von Kunden objektiv erkannt und ganzheitlich verstanden werden. Es ist wichtig zu erkennen: auch wenn die Interaktion bei digitalen Serviceangeboten immer mehr in digitale Räume oder Touchpoints verlagert werden, geht es im Service Design immer um Menschen und deren Bedürfnisse. Service Design schafft in erster Linie Erlebnisse für Menschen und Mehrwerte für Kunden. Service Design beeinflusst, wie gut und effizient diese Angebote die Bedürfnisse und Emotionen der Nutzer anspricht.
S wie Serviceinnovationen
Serviceinnovation ist die Entwicklung und erfolgreiche Implementierung innovativer Services und mehrwertbasierten Dienstleistungen. Diese kann Kernkompetenz eines Unternehmens sein, wenn Services und Dienstleistungen das eigentliche Geschäftsmodell darstellt. In der Regel beschreibt Serviceinnovation aber einen zusätzlichen Service zu einem Produkt, einer Dienstleistung oder einem speziellen Angebot, um den Absatz zu fördern, die Wertschöpfung zu verlängern oder einen einzigartigen Wettbewerbsvorteil zu schaffen. Kostenlose Dienstleistungen im Rahmen des Marketings sollten hierzu nicht gehören.
Die Entwicklung von Serviceinnovationen ist Teil des Innovationsmanagements in Unternehmen und wird über einen Innovationsprozess von der Ideenentwicklung über die Entwicklung von Prototypen bis hin zur erfolgreichen Umsetzung strukturiert. Durch die zunehmende Digitalisierung der herkömmlichen Geschäftsmodelle bietet digitales Servicedesign die Möglichkeit, analoge Geschäftsmodelle digital zu unterstützen und/oder neue digitale Geschäftsmodelle zu entwickeln. Serviceinnovationen spielen hierbei eine immer wichtigere Rolle, auch weil in den meisten Branchen über Produkte in der Regel keine Differenzierung und Wettbewerbsvorteile erzielt werden.
Erfolgreiche Serviceinnovationen basieren auf einem tiefen Zielgruppenverständnis und einer hohen Kundenempathie. Beides ist unerlässlich, um sich bei der Entwicklung von Serviceinnovationen mit Bedarfen und Bedürfnissen, Problemen und Anforderungen seiner Bestandskunden und potenziellen Neukunden tiefgreifend und objektiv auseinander zu setzen. Die Gewinnung dieser Customer Insights erfolgt über unterschiedliche Methoden wie z. B. Kundeninterviews, die Begleitung von Kunden im Tagesgeschäft, die Analyse und Identifizierung der erfolgskritischen Faktoren im Geschäftsmodell der Kunden und/oder in der Auswertung von Kundenanfragen und -beschwerden. Aus den Erkenntnissen werden Chancenfelder für Serviceinnovationen abgeleitet.
Serviceinnovationen haben einen besonderen Nachteil: Im Gegensatz zu technologischen oder Produktinnovationen, die über einen längeren Zeitraum entwickelt wurden, lassen sich Serviceinnovationen relativ einfach entwickeln. Oftmals ist es „nur“ eine pfiffige Idee, die schnell umgesetzt werden kann. Dem entsprechend fehlt ihnen mittel- oder langfristig das Alleinstellungsmerkmal, wenn die Innovation nicht über Schutzrechte abgesichert werden kann. Wettbewerber und andere Unternehmen können erfolgreiche Serviceinnovationen schnell kopieren und nachahmen, ausgenommen wenn ein Unternehmen mit dieser Serviceinnovation in Verbindung gebracht wird. Deshalb ist bei der Entwicklung von Serviceinnovationen umso wichtiger, eine hohe Customer Experience zu erzielen und mehrwertbasierte Dienstleistungen anzubieten und diese permanent weiter zu entwickeln und immer wieder mit den Anforderungen von Kundenseite abzugleichen. Serviceinnovationen sind kein Einmalangebot, sondern müssen zum Leistungsportfolio werden, Produkte und Dienstleistungen sinnvoll abzurunden. Da Serviceinnovationen die neue Wertschöpfung für Unternehmen wird, sollten sie idealerweise zur DNA im Geschäftsmodell und strategisch in der Unternehmensausrichtung verankert werden.
S wie S-Kurven-Modell
Das S-Kurven-Modell ist ein Instrument im strategischen Innovationsmanagement. Es baut auf dem →Technologielebenszyklus-Modell nach Arthur D. Little auf und basiert auf der Annahme, dass technische Entwicklungen in einem idealtypischen Lebenszyklus und somit im Rahmen ihrer Weiterentwicklung an Leistungsgrenzen stoßen. Das Modell dient der Erkennung von möglichen technischen Sprüngen und unterstützt den Entscheidungsprozess in Unternehmen, zu einer neuen Technik zu wechseln oder eine solche zu entwickeln. Die S-Form dient hierbei der graphischen Darstellung für das Verhältnis zwischen dem Aufwand für die Verbesserung eines Produktes oder Prozesses und dem Ergebnis, die man durch diese Entscheidung erzielt. Die Steigung der Kurve beschreibt hierbei die Zunahme an Leistungsfähigkeit durch zusätzliche Maßnahmen von Forschung und Entwicklung, so dass das Modell die Produktivität von F&E-Ressourcen misst. Mithilfe des S-Kurven-Modells kann das Wettbewerbspotenzial von Technologien in Abhängigkeit von der Zeit ermittelt werden. Hierbei unterscheidet man verschiedene Phasen:
- die Entstehungsphase (Forschung und Entwicklung),
- die Wachstumsphase,
- die Reifephase sowie
- die Phase der Alterung bzw. der Abschöpfung.
und differenziert zwischen technologischen und strategischen Lebenszyklusphasen. Es ist durchaus möglich, dass eine Branche bereits die Reifephase erreicht hat, während sich ihre Schlüsseltechnologie noch in der Wachstumsphase befindet. Die Entwicklung von Technologien ist dabei gekennzeichnet durch ihre Kapazitätsauslastung während der Nutzungsdauer sowie ihre strategische Bedeutung in den einzelnen Branchen. Aufgrund der Dynamik in den technischen Entwicklungen ist es mittlerweile nicht ungewöhnlich, dass Technologien nicht mehr den kompletten Lebenszyklus durchlaufen, da sie bereits während der Wachstums- oder Reifephase durch andere verdrängt werden. Hierfür kann es unterschiedliche Gründe geben: die ursprüngliche Leistungsfähigkeit wurde überschätzt oder ist für das wirtschaftliche Umfeld nicht (mehr) erforderlich oder andere Technologien erweisen sich als leistungsfähiger und rücken somit in den Vordergrund.
Das S-Kurven-Modell visualisiert den optimalen Zeitpunkt für den Übergang von einer bestehenden auf eine neue oder innovative Technologie. Dadurch können Investitionen in unrentable Technologien reduziert oder im Idealfall gleich vermieden und in innovative Technologien gesteckt werden, die eine höhere Erfolgsaussicht haben. Die Bestimmung des optimalen Übergangszeitpunktes ist nicht nur ein finanzieller Aspekt, sondern schafft Wettbewerbsvorteile. Für die Anwendung des S-Kurven-Modells werden vier Schritte empfohlen:
- Identifikation technologischer Alternativen ohne Bewertung
- Identifikation relevanter Leistungsparameter für relevante Produktnutzergruppen
- Ermittlung technologischer Leistungsgrenzen inkl. einer numerischen Schätzung der identifizierten limitierenden Mechanismen
- Ermittlung der S-Kurve sowie Einzeichnung der Technologiegrenzen als horizontale Linien, so dass eine Prognose der künftigen Leistungsperformance möglich wird.
→Technologietyp
S wie Small Data
Der Begriff Small Data beschreibt genau das Gegenteil zu →Big Data, der häufig synonym für Digitalisierung verwendet wird. Im Gegensatz zu Big Data versteht man unter Small Data die Daten, die in einem Umfang und Format auftreten, die überschaubar, zugänglich und realisierbar sind. Dabei liefern sie kompakte und konsumierbare Informationen, die eine bestimmte Aufgabenstellung beantwortet und dem Menschen zugänglich macht. Während Big Data zur Analyse mittels künstlicher Intelligenz verwendet wird, hilft Small Data beim Verständnis von Prozessen, wie Suchverläufen, Vorhersagen oder Warnungen. Small Data wird immer dann angewendet, wenn es um den Blick hinter die Kulissen geht, sei es bei Customer Insights oder Analysen des Nutzerverhaltens.
S wie Smart
SMART ist ein Akronym aus dem Englischen und steht für Specific (Spezifisch), Measurable (Messbar), Achievable (Erreichbar), Reasonable (Angemessen) und Time-bound (Terminiert). Die Smart-Formel wurde durch den Managementforscher und Unternehmensberater Peter Drucker entwickelt und dient der eindeutigen Definition von Zielsetzungen, um alle Aspekte zu erfassen. Ziele müssen demnach so präzise wie möglich und eindeutig definiert sein. Ziele müssen messbar sein, so dass die Messbarkeitskriterien vorher bekannt sein müssen. Ziele sollten relevant, attraktiv bzw. erstrebenswert sein und müssen erreichbar und akzeptiert sein. Das gesteckte Ziel muss möglich und realisierbar sein. Des Weiteren muss ein Ziel mit einem fixen Datum festgelegt werden können. Die Entwicklung der Smart-Formel ist das Ergebnis aus der Zielsetzungstheorie (englisch Goal-Setting-Theory) von Locke und Latham. In Anlehnung an John Withmore (1994) spricht man auch von der Smart-Pure-Clear-Formel.
S wie Smarte Produkte
Ein Produkt wird als smart oder intelligent bezeichnet, wenn dieses über Informationen zum eigenen Herstellungsprozesses verfügt und in der Lage ist, während der Fertigungs- und Nutzungsphase Daten zu sammeln und zu kommunizieren. Diese Daten werden in der Regel in einer Cloud hochgeladen, wo sie gesammelt und ggf. verdichtet werden. Dafür werden Chips, Mikroprozessoren und eingebettete Systeme entwickelt. Diese stellen sicher, dass z. B. Konfigurationsdaten auf einer Komponente abgelegt werden, damit die Inbetriebnahme von Maschine und Produktionslager schneller erfolgen und manuelle Konfigurationsschritte entfallen können. Smarte Produkte kommunizieren mit Maschinen und teilen ihnen z. B. mit, welcher Produktionsschritt als nächstes erfolgt. Somit sind smarte Produkte ein wesentlicher Baustein in der →Digitalisierungsstrategie im Bereich der →Industrie 4.0. Durch ihren Einsatz werden industrielle Prozesse vereinfacht, optimiert und Problemstellen identifiziert, um Störungen im Ablauf zu minimieren. Hierzu sind intelligente, vernetzte Systeme notwendig. Diese stellen in der Produktion einen möglichst hohen Grad der Selbstorganisation sicher. Durch eine derartige →Smart Factory sollen nicht nur einzelne Produktionsabläufe optimiert werden, sondern die komplette Wertschöpfungskette.
Smarte Produkte werden auch als →Cyber-Physische Systeme bezeichnet, die um smarte (intelligente) Services ergänzt werden. Hinsichtlich des Komplexitätsgrades unterscheidet man smarte Einzelprodukte, vernetzte Produktsysteme (Service-Plattformen) und hochkomplexe, sektorenübergreifende Produktsysteme (komplette Ökosysteme, die auch als Systems of Systems bezeichnet werden). Smarte Produkte vereinen sowohl materielle als auch immaterielle Komponenten und werden zunehmend als smarte Produkt-Service-Systeme (PSS) bezeichnet.
Smarte Produkte erfordern eine völlig neue, mehrstufige Technologieinfrastruktur. Dieser Technology Stack fungiert als Plattform und ermöglicht den Austausch der Daten zwischen Produkt und Nutzer und integriert Daten aus dem Ökosystem. Smarte Produkte werden je nach Leistungsfähigkeit und „Intelligenzgrad“ in vier aufeinander aufbauende Kategorien unterteilt: Smarte Produkte der
- Stufe können den Zustand ihres Umfelds durch eingebaute Sensoren und externe Datenquellen überwachen, so dass sie nicht nur Erkenntnisse über ihre Leistung und Anwendung liefern, sondern auch bei Veränderungen im Umfeld situative Maßnahmen eingeleitet werden können.
- Stufe können über ein umfassendes Monitoring ferngesteuert werden. Die Funktionen, Leistung und Anwendung dieser smarten Produkte können in bisher nicht gekanntem Ausmaß an individuelle Anforderungen angepasst werden, so dass Produkte dieser Kategorie einen hohen Personalisierungsgrad aufweisen.
- Stufe kombinieren die Fähigkeiten der 1. und 2. Kategorie und optimieren kontinuierlich ihre Funktionen. Hierzu kommen statistische Verfahren und Methoden der Smart Data Analytics zum Einsatz, um prädiktive Diagnosen durchzuführen durch die z. B. mögliche Produktstörungen vorhergesagt werden können. Smarte Produkte dieser Kategorie finden ihre Anwendung häufig in vernetzten Systemen wie z. B. smart Home.
- Stufe bauen auf die zuvor genannten Fähigkeiten auf und führen zur höchsten Kategorie. Smarte Produkte dieser Kategorie sind autonome Produkte bzw. Systeme mit der Fähigkeit, sich selbst zu diagnostizieren, zu verbessern bzw. instand zu halten. Diese Produkte haben einen sehr hohen Personalisierungsgrad und können nicht nur eigenständig mit anderen smarten Produkten dieses Levels kommunizieren sondern auch selbständig kooperieren.
Die spezifischen Eigenschaften von smarten Produkten können in vielen Bereichen eingesetzt werden. Allerdings werden ihre Vorteile in erster Linie in drei wesentlichen Anwendungsbereichen genutzt:
- Virtual & Augmented Reality
- Predective & Preventive Maintenance
- Mustererkennung von unstrukturierten Daten
Die technische Infrastruktur von smarten Produkten besteht aus drei Kernelementen:
- physische Komponente aus mechanischen und/oder elektronischen Bauteilen,
- intelligente Komponenten aus Sensoren, Aktoren, Mikroprozessoren, Steuerungs- und Speicherelementen, Software, ein integriertes Betriebssystem und eine digitale Bedienoberfläche,
- Vernetzungskomponenten aus Schnittstellen, Sendern, Protokolle und Netzwerken, mit denen die Kommunikation zwischen smarten Produkten und ihrem Umfeld ermöglicht wird.
Die Entwicklung von smarten Produkten wird die Geschäftsmodelle und -prozesse von Unternehmen nachhaltig verändern. Die Auswirkungen zunehmender Vernetzung werden die industriellen Prozesse wesentlich verändern, aber auch in der Supply Chain, im Vertrieb, Marketing und Service. Smarte Produkte brechen die bisherigen Strukturen in Unternehmen auf und „erzwingen“ eine bereichsübergreifende Koordination.
Durch die ständige Kommunikation und Rückkopplung smarter Produkte mit ihren Ökosystemen, selbstlernende Algorithmen und die ständige Skalierung der Rechenleistung werden smarte Produkte neue Wertschöpfungsoptionen schaffen, innovative Serviceangebote kreieren und die Kundenorientierung und -einbindung auf ein völlig neues Level heben.
S wie SOM
SOM ist ein Akronym für den englischen Begriff Serviceable Obtainable Market oder Share of Market und grenzt im weiteren Sinne das theoretisch mögliche Marktpotenzial (→TAM) gezielt ein, um einen realistischen Absatzmarkt bzw. das Marktvolumen zu definieren. SOM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren. Das in SOM definierte Marktvolumen ist die im Businessplan relevante Kenngröße für das eigene Unternehmensziel und bestimmt dadurch die Ressourcen. Der wesentliche Unterschied zwischen →SAM und SOM ist die Berücksichtigung der konkreten Marktsituation wie Markteintrittsbarrieren, Wettbewerb und dgl. sowie die internen Engpässe zum Erreichen der Ziele. Hierzu gehören die verfügbaren Kompetenzen, Kapazitäten und Ressourcen.
S wie SPRIND
→Agentur für Sprunginnovation
S wie Sprinkler-Strategie
Bei der Sprinkler-Strategie handelt es sich um eine Expansionsstrategie, bei der Unternehmen ausländische Absatzmärkte gleichzeitig erschließen. Gleichzeitig ist hierbei nicht wörtlich gemeint, bezeichnet aber innerhalb eines relativ kurzen Zeitraumes (z. B. einige Monate bis maximal zwei Jahre). Das Gegenstück zu dieser →Timing-Strategie, die auch als Diversifikationsstrategie oder Akkumulationsstrategie bezeichnet wird, ist die →Wasserfallstrategie. Bei der Sprinkler-Strategie wird der Ressourceneinsatz diversifiziert. Die selektierten Märkte werden gleichzeitig mit dem oder den Produkten bzw. Angeboten bedient, was Märkte übergreifend zu einem parallel verlaufenden Produktlebenszyklus führt und diesen, international betrachtet, verkürzt. Das Ziel der Sprinkler-Strategie besteht darin, die Markteintrittsrisiken (Risikodiversifikation) auf eine Vielzahl von Ländern und/oder Märkten zur Vermeidung einer hohen Abhängigkeit von einem oder wenigen ausländischen Märkten zu verteilen. Der Vorteil liegt darin, dass relativ schnell Marktanteile gesichert werden können. Gleichzeitig ist diese Form der Expansionsstrategie je nach Produkt oder Angebot mit hohen Investitionskosten, einem hohen Managementeinsatz, Unternehmensressourcen und relativ hohen Risiken verbunden. Je physischer ein Produkt ist, umso mehr Aufwand und Kapitaleinsatz ist notwendig. Selbst digitale Dienstleistungen, bei denen man auf den ersten Blick annehmen sollte, dass sich diese schnell, einfach und gleichzeitig in mehrere Märkte ausrollen lassen, können einen hohen Aufwand für Übersetzungen in andere Sprachen sowie Anpassung an (japanische, chinesische) Schriftzeichen, kulturelle Unterschiede usw. Die meisten Risiken liegen dem entsprechend in einer dysfunktionalen Expansionsstrategie, wenn z. B. die Marktbearbeitung in unterschiedlichen Märkten weitgehend standardisiert erfolgt und regionale Besonderheiten wie z. B. Preisgefüge, Qualitätserwartungen, Kultur von Geschäftsbeziehungen, Wettbewerbsverhalten etc. einzelner Märkte ignoriert werden. Hinzu kommt, dass durch die Verteilung der Unternehmensressourcen das Risiko steigt, dass in bestimmten stärker umkämpften Märkten nicht genügend Ressourcen zur Verfügung gestellt werden können, um gegen den Wettbewerb zu bestehen.
S wie Sprunginnovationen
Sprunginnovation ist ein Synonym für radikale oder →disruptive Innovationen. Typisch für diese Innovationen ist, dass sie ihr Umfeld nachhaltig verändern. Dies kann entweder durch die Schaffung eines völlig neuen Marktes geschehen oder in dem bestehende Branchen oder Marktsegmente grundlegend „umgekrempelt“ werden. Der Begriff wird auch verwendet, wenn ein massives technologisches, soziales oder ökologisches Problem gelöst wird. Bekannte Beispiele für Sprunginnovationen sind z. B. der Buchdruck, Antibiotika wie Aspirin, die Dampfmaschine, das Radio und Fernsehen oder auch das Elektronenmikroskop und die Aufzugsbremse. Sprunginnovationen in jüngerer Vergangenheit sind das Internet, das MP3-Format, das Smartphone oder der 3D Druck.
S wie St. Galler Geschäftsmodell-Navigator
Zur Entwicklung, Visualisierung und anschließenden Bewertung von Business Model Innovation wird zunächst das bestehende Geschäftsmodell dargestellt und einem Stresstest unterzogen. Neben dem bekannten Business Model Canvas und seinen Adaptionen kann hierfür auch das Business Model Navigator Konzept der Universität St. Gallen verwendet werden. Neben den neun Dimensionen im Canvas beschäftigt sich der Business Model Navigator mit den Mustern und Mechanismen von Geschäftsmodellen. So hat die Universität St. Gallen herausgefunden, dass die meisten Geschäftsmodellinnovationen auf einer Rekombination von lediglich 60 Mustern (Pattern) basieren. Eines dieser 60 Beispiele sind der Verkauf von günstigen Geräten wie Drucker, Kaffeemaschinen oder Nassrasierer und dem Verkauf der hierzu im Vergleich teuren Nachfüll-Produkte wie Druckerpatronen, Kaffeekapseln und Rasierklingen. Daraus ergibt sich für Business Model Innovation folgende Vorgehensweise: In der ersten Phase wird das bestehende Geschäftsmodell analysiert. Dieses auf traditionellen Werten aufgebaute und über Jahre auf Effizienz getrimmte Geschäftsmodell orientierte sich an den Umfeldbedingungen und der eigenen Umsetzungsfähigkeiten. Ideenfindung fand im bekannten Terrain statt und ist hauptursächlich, dass Unternehmen keine echten Innovationen entwickelt haben, sondern die bestehenden immer nur weiter entwickelt oder modifiziert haben. Beim Business Model Navigator Konzept liegt der methodische Ansatz darin, neue Geschäftsmodelle und/oder deren Monetarisierung dadurch zu kreieren, in dem die vorhandenen Muster mithilfe der 60 Business Cards neu kombiniert werden. Die neuen Ideen werden anschließend systemisch bewertet und einem Protyping und User-Testing unterzogen. Somit bekommt man erste Indikatoren, ob das neue Modell in der Praxis funktionieren wird. Bei der abschließenden Implementierung sollten alle Beteiligte rechtzeitig und aktiv mit eingebunden werden, da Menschen Veränderungen grundsätzlich skeptisch gegenüberstehen, egal wie vielversprechend etwas Neues klingt.
S wie Synnovation
Über Jahrhunderte akkumulierte sich Wissen durch das Prinzip der Entdeckung. In den letzten Jahrzehnten wechselte diese Methode. Experimentelle „Settings“ trieben gezielt und gesteuert die Wissensermittlung und -verbreitung voran. Heute wurde erkannt, dass diese Methode erschöpft ist, weil die meisten Experimente nur noch dazu tendieren, Antworten auf längst bekannte Fragen zu formulieren. Die Herausforderung in der Zukunft besteht darin, neue Fragestellungen zu generieren. In neuen agilen Methoden wie z. B. →Design Thinking oder →Cross Innovation findet man bereits erste syntheseorientierte →Innovationsmethoden. Innovations- und Zukunftsforscher sind sich längst einig, dass →Innovationen viel zu lange mit dem Tunnelblick der Experten betrachtet und bewertet und in vielen Fällen auch verhindert wurden. Wirkliche Innovationen entstehen in inhomogenen agilen Einheiten abseits zentralistischer Organisationsstrukturen an den Rändern der klassischen Märkte in kreativen Ökosystemen, in denen ein Infragestellen des Status Quo zur DNA gehört und ungeplante Innovationen nach dem Zufallsprinzip einen systemischen Ansatz folgen.
Über Jahrzehnte basierten Innovationen auf wissenschaftlicher Grundlagenforschung hin zu einem →technologiegetriebenen Push-Ansatz. In der Regel handelt es sich um einen langjährigen und aufwändigen Entwicklungsprozess (auch →Innovationspipeline oder →Stage-Gate-Prozess genannt), in dem neue Materialien, Produkte, Technologien oder Verfahren entstanden sind. Durch die rasanten Marktveränderungen (auch als →VUCA bezeichnet) stößt das herkömmliche Innovationsmodell zunehmend an seine Grenzen, wobei dies auch in der Vergangenheit oft akribisch am Markt vorbei entwickelt hat.
Ein neuer Ansatz sind Synnovationen, mit denen selbst der Innovationsprozess innovativ gedacht und entwickelt wird. Innovationen werden nicht mehr in abgeschotteten Forschungs- und Entwicklungsabteilungen von Unternehmen ausgebrütet, sondern in offenen und kollaborativen Multi-Stakeholder-Prozessen agil und iterativ entwickelt (auch →open Innovation genannt). Neben der frühzeitigen aktiven Einbindung der Kundenperspektive werden interdisziplinäre Kompetenzen anderer Branchen und Disziplinen mit eingebunden. Open Innovation ist hierbei der Sammelbegriff für ein ganzes Set neuer Methoden und Ansätze, die den Werkzeugkoffer von Synnovationen bilden. Synnovation bezeichnet eine neue und systemische Innovationskultur, bei der die bisherige Technologieausrichtung (Push-Ansatz) zu einer kundenzentrierten Marktausrichtung (Pull-Ansatz) entwickelt wird, die mehrschichtig und multidimensional angelegt ist und ihren „genialen“ Moment aus der Synthese zieht. In dem Zusammenhang fällt oft der Begriff →„Serendipity“.
S wie Szenario-Impakt-Analyse
Szenarien sind eine Projektion über die Entwicklung in Zukunft. Ausgehend von einer definierten Situation in der Gegenwart wird ein definierter Zeitraum betrachtet und prognostiziert, wie sich dieses Segment bis dahin verändern wird. Je unspezifischer das Segment und/oder länger dieser Zeitraum angegeben wird, umso mehr Möglichkeiten an Szenarien gibt es. Darüber hinaus gibt es immer unvorhergesehene Ereignisse, die auf diese Szenarien Einfluss nehmen und deren Auswirkungen unterschiedlich stark sein können. Szenarien helfen zu definieren, welche Art von positiven oder negativen Entwicklungen möglicherweise auftreten könnten. Man kann annehmen, dass sich grundsätzlich nichts oder kaum etwas ändert oder eben, dass sich Dinge drastisch verändern – entweder in eine positive oder negative Richtung. Angesichts dieser Unsicherheit helfen Szenarien, um die Auswirkungen eines Best-Case oder Worst-Case zu simulieren.
Hierfür nutzt man die Szenariotechnik, die ihre Wurzeln in der Wirtschaftswissenschaft hat. Unterschieden werden sechs Schritte:
- Definition des gegenwärtigen Umfelds: Analyse des Branchenumfelds sowie des eigenen Ökosystems und welche Veränderungen eine positive oder negative Auswirkung auf die Zukunft des Unternehmens haben können. Einflussfaktoren können technologische Entwicklungen, Geschäftsmodelle, gesetzliche Vorgaben, Kundenpräferenzen oder Wettbewerbsverhalten sein. Der systematische Ansatz hilft, potenzielle Chancen und Risiken zu erkennen und Schlüsselfaktoren zu identifizieren. Diese sind essenziell, um eine strategische Robustheit zu entwickeln und um auf das Eintreten mehrerer Szenarien vorbereitet zu sein. Daher ist der definierte Zeitraum entscheidend. Denn für einen kürzeren Zeithorizont gibt es eher quantitative Ansätze, während auf bei einem längeren Zeithorizont qualitative Ansätze von Vorteil sind.
- Entwicklung von Prognosen: Relevante Aussagen zum eigenen Umfeld werden qualifiziert und quantifiziert, um unterschiedliche Projektionen von Schlüsselfaktoren abzuleiten. Diese dienen als Vision und geben Orientierung und Leitplanken, um unspezifischen Spekulationen vorzubeugen. Leitplanken definieren sich über die drei grundlegenden Faktoren: dem Ziel, dem Zeithorizont und den Daten.
- Identifizierung der wichtigsten Einflussfaktoren: in einer Aktiv-Passiv-Matrix werden im ersten Schritt die in Frage kommenden Einflussfaktoren verdichtet. Aktive Faktoren sind diejenigen, die eine Entwicklung anderer Faktoren vorantreiben; passive Faktoren dagegen die, die von anderen angetrieben werden.
- Gewichtung der Schlüsselfaktoren: durch die Quantifizierung und Qualifizierung der relevanten Schlüsselfaktoren kann der Impakt im definierten Umfeld sowie deren Auswirkungen für das eigene Unternehmen identifiziert werden. Abgerundet wird diese Phase mit einer Risikoanalyse.
- Erstellung von Projektionen: auf Basis dieser Schlüsselfaktoren werden Projektionen erstellt, wie sich diese in Zukunft entwickeln. Parallel muss eine Wahrscheinlichkeitsprognose erstellt werden, ob und welche dieser Faktoren ggf. gleichzeitig auftreten können (Cross-Impact-Analyse).
- Beschreibung der Projektionen innerhalb der Szenarien: Schlussfolgerungen für das eigene Unternehmen und Festlegung der strategischen Optionen, wie man auf mögliche Auswirkungen für das Unternehmen reagieren oder den Prozess pro-aktiv selbst gestalten kann. Wichtig ist, dass diese nicht nur für ein Szenario entwickelt wird, sondern alle in Frage kommenden Szenarien beinhalten sollte.
Der letzte Punkt wird in Unternehmen häufig vernachlässigt. Gerade die aktuellen Ereignisse wie z. B. die COVID-Krise oder nachgelagert die Unterbrechung / Verzögerung der Lieferketten verdeutlichen die Notwendigkeit einer kontinuierlichen, strategischen Vorausschau und der damit zusammenhängenden Planung.
SaaS (Software-as-a-Service)
S wie SaaS (Software-as-a-Service)
Software als Service (kurz SaaS) ist ein Service des →Cloud-Computing. Hierbei wird Unternehmen Software bereit gestellt, die nicht lokal auf dem Computer installiert ist, sondern über eine Internetverbindung (Cloud) zur Verfügung gestellt wird. Unternehmen nehmen lediglich die Funktionen der Software von außen in Anspruch. Bekannte Anwendungen sind z. B. von Microsoft (Microsoft 365) und Adobe (Creative). Aber auch E-Mail-Provider und diverse CRM-Lösungen funktionieren auf dieser Basis. Nutzer legen individuelle Accounts an und anfallende Kosten werden monatlich oder jährlich abgerechnet. Bereitstellung, Wartung und Aktualisierung der Programme liegen direkt beim Anbieter. Andere Services des Cloud-Computing umfassen u. a. Infrastructure as a Service (→IaaS) und Platform as a Service (→PaaS).
SAM
S wie SAM
SAM ist ein Akronym für den englischen Begriff Serviceable Available Market oder Served Available Market und grenzt im weiteren Sinne das theoretisch mögliche Marktpotenzial (→TAM) gezielt ein, um einen realistischen Potenzialmarkt zu definieren. SAM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren. Eine Eingrenzung kann temporär oder regional stattfinden oder sich auf Marktsegmente und/oder Zielgruppen beziehen. SAM geht im Gegensatz zum →SOM immer noch davon aus, dass es innerhalb dieser Segmentierung keinerlei externe Einschränkungen durch Wettbewerb oder dgl. gibt, so dass ein Marktanteil von 100% in dieser Nische möglich wäre. Zum Teil werden im SAM bereits interne Ressourcen berücksichtigt.
Schlüsseltechnologie
S wie Schlüsseltechnologie
→Technologietyp
Schrittmachertechnologie
S wie Schrittmachertechnologie
→Technologietyp
Schutzrechte
S wie Schutzrechte
Gewerbliche Schutzrechte dienen dem Schutz eines Erfinders und/oder Urhebers vor unerlaubter Kopie und Nachahmung. Er erwirbt damit das vorübergehende Monopol für die gewerbliche Nutzung seiner Erfindung oder kreativen Schöpfung und somit eine Alleinstellung oder zumindest herausgehobene Position am Markt. Der Erfinder und/oder Urheber entscheidet, wer seine Erfindung oder kreative Schöpfung nutzen und verwerten darf und kann dies anderen untersagen. Er allein hat die Verfügungsgewalt über das mögliche kommerzielle Potenzial. Diese sichert nicht nur Wettbewerbsvorteile und eine starke Marktposition, sondern auch die Möglichkeit, die zum Teil hohen Entwicklungskosten wieder einzufahren. Um Innovationen und andere technische Entwicklungen sowie Marken oder andere kreative Schöpfungen vor wertschädigenden Angriffen zu schützen, werden von Ämtern und Behörden verbriefte Schutzrechte verwendet. Durch ihre Veröffentlichung wird außerdem verhindert, dass der technische Fortschritt durch Geheimhaltung gebremst wird. Gewerbliche Schutzrechte wirken daher in mehrere Richtungen.
Gewerbliche Schutzrechte gelten für einen festgelegten Zeitraum, in einem klar bestimmten Territorium und in einem konkreten Anwendungsgebiet. Das so erworbene Exklusivrecht hat den Vorteil, dass Nachahmer ausgeschlossen werden und die eigene Innovation und/oder kreative Schöpfung gestärkt wird. Allerdings ist Schutzrecht nicht gleich Schutzrecht und nicht jedes wirkt in der gleichen Form. Einige wirken durch Veröffentlichung, andere wiederum müssen beantragt, genehmigt und veröffentlicht werden. Es gibt verschiedene Schutzarten für geistiges Eigentum wie Verfahren, Produkte oder auch Dienstleistungen – international als intellectual property (IP) bezeichnet.
Patente und Gebrauchsmuster gelten für technische Erfindungen, die sich durch ihre Neuheit auszeichnen und Anwendung in einem Gewerbe finden. Der Unterschied zwischen einem Patent (20 Jahre) und einem Gebrauchsmuster (10 Jahre) liegt zum einen in der Schutzdauer. Zum anderen werden Gebrauchsmuster im Unterschied zu Patenten bei ihrer Anmeldung nur formal kontrolliert. Dies bedeutet, dass der Grad der Erfindung beschrieben wird und formellen Vorgaben entsprechen muss, aber keine inhaltliche Prüfung oder Recherche gegenüber anderen Erfindungen erfolgt. Markenrechte dienen dem Schutz von Wort- und/oder Bildmarken in Form von Worten, Buchstaben, Schriftarten, Logos, Zahlen usw. Diese werden in einem Markenregister eingetragen. Darüber hinaus können auch außergewöhnliche Farb- und/oder Formgestaltung von Produkten oder Dienstleistungen geschützt werden. Hierzu lässt man das Design schützen. Das Urheberrecht schützt die Urheber von Werken der Literatur, Wissenschaft und Kunst. Im Unterschied zu den bisher genannten Schutzrechten muss das Urheberrecht nicht beantragt werden. Es entsteht automatisch, wenn das Werk veröffentlicht oder der Nachweis über seine Schöpfung erbracht wurde. Gewerblicher Rechtsschutz kann auch durch das Wettbewerbsrecht erzielt werden (Nachahmungsschutz).
Schwarmdummheit
S wie Schwarmdummheit
Schwarmdummheit ist der Versuch, einen methodischen Gegenentwurf zum Phänomen der Schwarmintelligenz zu definieren. So wie mehrfach nachgewiesen wurde, dass Menschen in einer Gruppe gemeinsam bessere Entscheidungen treffen können als ein Mensch allein, haben Experimente eben auch mehrfach bewiesen, dass diese Weisheit der Vielen schnell auch in Schwarmdummheit umschlagen kann. Ursache ist typisch menschliches Herdenverhalten, wenn Menschen mitbekommen, dass andere über eine Aufgabe anders denken als sie selbst, verunsichert sind und teilweise ihre eigene Meinung ändern, um nicht ggf. isoliert zu sein. Experimente belegen, dass sozialer Einfluss vor allem die Diversität von Antworten verringert, nicht jedoch den kollektiven Fehler. Das Phänomen der Schwarmdummheit tritt in der Regel in mittleren bis größeren Unternehmen auf und ganz besonders häufig in Organisationen, in denen das Management keine klaren Entscheidungen trifft. Hinzu kommt, dass in einem schwarmdummen System das Logische, Nachvollziehbare und Vernünftige oftmals diskriminiert, ausgegrenzt und als schlecht und/oder negativ dargestellt wird. Durch den Druck innerhalb der Gruppe beginnt häufig ein Vortäuschen von Kompetenzen und Leistungen, wodurch eine Abwärtsspirale entsteht. Typische Anzeichen für schwarmdumme Systeme sind u. a. Überlastung und Überschätzung, Opportunismus, persönliche Interpretationen von Statistiken, Ignoranz und Blindheiten gegenüber Veränderungen, zwanghafte Anwendung von Regeln, die kopflose Umsetzung neuer Hypes oder sinnbefreite Anwendung von Managementtechniken usw.
Schwarmintelligenz
S wie Schwarmintelligenz
Schwarmintelligenz (engl. swarm intelligence) ist ein Begriff, der häufig im Zusammenhang mit Innovationen, Innovationsmanagement und Open Innovation genannt wird. Der Begriff (auch als Gruppenintelligenz oder kollektive Intelligenz bezeichnet) tauchte erstmals in den 1980-er Jahren im Zusammenhang mit Robotik auf. Schwarmintelligenz ist ein emergentes Phänomen, bei dem Gruppen von Individuen gemeinsam kollektive Entscheidungen treffen und durch Kollaboration bessere Ergebnisse erzielen, als dies einzelne im Team könnten. Auch für selbst organisierende Gruppen, die durch intensive Kommunikation untereinander integriert sind und so sogar eine Individualität höherer Ordnung (einen so genannten „Superorganismus“) bilden können, wird der Begriff der kollektiven Intelligenz verwendet. Alle Ansätze haben eines gemeinsam; eine dezentrale, nicht-hierarchisch organisierte Entscheidungsstruktur. Zur Erklärung dieses Phänomens existieren verschiedene systemtheoretische, soziologische und philosophische Ansätze.
Schwarmintelligenz tritt in drei verschiedenen Versionen auf:
- die kollektive Intelligenz eines Schwarms
- die individuelle Intelligenz einzelner innerhalb eines Schwarms
- die kreative Schwarmintelligenz
Bei der kollektiven Schwarmintelligenz trifft eine Gruppe aufgrund von Wissen, Erfahrungen, Vermutungen oder Perspektiven gemeinsam eine Entscheidung (Gesetz der Statistik). Die Intelligenz des Einzelnen im Schwarm setzt darauf, dass sich innerhalb einer Gruppe von Menschen der eine Experte befindet, der das zur Lösung einer Aufgabe notwendige Fachwissen besitzt. Die kreative Schwarmintelligenz kommt bei Konzepten wie Co-creation und Ideenwettbewerben zum Einsatz. Der Schwarm wird nicht mit einer Frage konfrontiert, sondern mit einer kreativen Aufgabenstellung. Durch die Diskussion und Bewertung unterschiedlicher Herangehensweisen entstehen Ideen, die durch Inspirationen und Kompetenzen aller geprägt sind. Diese Form der Schwarmintelligenz wird auch Social Collaboration genannt. Im Gegensatz zu Teamwork, wo ein Team eine klar definierte Gruppe von Menschen umfasst, treffen sich bei der kreativen Schwarmintelligenz temporäre Gruppen z. B. auf entsprechenden Onlineplattformen.
Schwarmintelligenz ist ebenfalls ein Forschungsfeld der künstlichen Intelligenz, bei der nach dem Vorbild von staatenbildender Insekten wie z. B. Ameisen, Bienen und Termiten sowie teilweise auch Vogelschwärmen (Schwarmverhalten) Softwaresysteme modelliert werden. Man spricht auch symmetrisch verteilten Algorithmen. Die KI-Forschung geht davon aus, dass die Kooperation künstlicher Agenten eine höhere kognitive Leistung simulieren kann („The Society of Mind“). Für die Kommunikation zwischen den Software-Agenten wird häufig die Knowledge Query and Manipulation Language (KQML) eingesetzt. Forscher an der Princeton University befassen sich seit 1988 mit dem Phänomen der kollektiven Wahrnehmung von Menschen und haben hierzu Messstationen auf der ganzen Welt stationiert. Das „Global Consciousness Project“ sammelt die empirischen Daten und vergleicht diese mit der Nachrichtenlage. Hierbei wird analysiert, ob ein Ereignis bereits neuronale Reaktionen hervorruft, bevor diese Nachricht überhaupt verbreitet wurde.
Scrum
S wie Scrum
Agilität und Scrum werden häufig synonym verwendet, obwohl es Unterschiede gibt. Während Agilität eine Denk- und Arbeitsweise darstellt und die Unternehmenskultur prägt, handelt es sich bei Scrum um ein heuristisches Framework zur Entwicklung komplexer Produkte und Dienstleistungen, das auf inkrementelle, empirische und iterative Vorgehensweise in kurzen Lernschleifen setzt und die Zusammenarbeit in Teams unterstützt. Scrum (englisch für „Gedränge“) ist eine methodische Vorgehensweise im agilen Projektmanagement und wurde in den 1990-er Jahren ursprünglich in der Softwaretechnik entwickelt. Das Rahmenwerk definiert Tools und Rollen, Planungs- und Arbeitsergebnisse, Meetings und Ereignisse sowie das Zusammenspiel dieser Elemente. Scrum ist keine Prozessvorgabe, sondern stellt als Rahmenwerk quasi die Spielregeln auf. Die Regeln sind im Scrum Guide beschrieben sowie in einer Kurzdarstellung im Agile Atlas.
Die konkrete Arbeitsweise wird von den Anwendern von Scrum innerhalb dieses Rahmens selbst definiert. Durch den flexiblen Prozess, der das Festlegen neuer Prioritäten erlaubt, sowie kurze Release-Zyklen können Teams fortlaufend dazulernen und sich verbessern. Somit kann die konkrete Umsetzung des Frameworks an die individuellen Anforderungen eines Unternehmens angepasst werden.
Scrum verkörpert die Werte der agilen Softwareentwicklung, die 2001 im agilen Manifest von Ken Schwaber, Jeff Sutherland und anderen formuliert wurden:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlungen.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.
In Scrum wird neben dem Produkt auch die Planung iterativ und inkrementell entwickelt. Der langfristige Plan (das Product Backlog) wird kontinuierlich verfeinert und verbessert. Der Detailplan (das Sprint Backlog) wird nur für den jeweils nächsten Zyklus (den Sprint) erstellt. Damit wird die Projektplanung auf das Wesentliche fokussiert. Das Scrum Framework kennt drei Führungsverantwortungen: Product Owner, Entwickler und Scrum Master.
Shallow Work
S wie Shallow Work
→Deep Work Hypothese
6-Hüte-Methode
S wie 6-Hüte-Methode
Die 6-Hüte-Methode wurde 1986 von Edward de Bono entwickelt. Diese Kreativitätstechnik wird deshalb auch als „Denkhüte von De Bono“ (engl. Six Thinking Hats) bezeichnet und kann sowohl zur Ideenfindung in einem Kreativitätsworkshop als auch in einem strukturierten Prozess im Innovationsmanagement eingesetzt werden. Die Methode beinhaltet sechs verschiedene Rollen und Blickwinkel, die nach Farben benannt sind: Weiß, Rot, Schwarz, Gelb, Grün und Blau. Diese werden durch Hüte repräsentiert und entsprechen bestimmten Perspektiven. Die Teilnehmer schlüpfen gemeinsam abwechselnd in diese Rollen und beleuchten die Aufgabe, Ausgangssituation oder Problemstellung aus der jeweiligen Perspektive. Die Methode kommt zum Einsatz, wenn neue Ideen entwickelt, bewertet und verbessert werden sollen, zur Lösung von komplexen Problemstellungen oder auch im Rahmen der Konfliktbewältigung, da Teilnehmer unter dem Deckmantel der „Rolle“ ihre eigene Sicht nur bedingt preisgeben müssen. Man kann den Effekt dadurch verstärken, wenn die Teilnehmer echte Hüte in sechs verschiedenen Farben aufsetzen. Alternativ können auch Karten oder sonstige Gegenstände in sechs Farben verwendet werden, mit denen die verschiedenen Rollen symbolisiert werden, wobei die Wirkung dann nicht so stark ist. Die Farben dienen hierbei nicht der optischen Unterscheidung, sondern haben jeweils eine zugewiesene Bedeutung:
- Weiß steht für neutrales, analytisches Denken. „Träger“ des weißen Denkhutes beschäftigen sich nur mit Zahlen, Daten und Fakten und vermeiden es, sich eine subjektive Meinung zu bilden oder zu bewerten.
- Rot symbolisiert subjektives, emotionales Denken. Teilnehmer in dieser Rolle bilden sich eine persönliche Meinung und betrachten positive wie negative Gefühle, wobei auch Widersprüche auftreten dürfen.
- Schwarz repräsentiert den pessimistischen Kritiker, der sich objektiv auf negative Aspekte konzentriert. „Träger“ des schwarzen Denkhutes denken an Risiken, Nachteile und Einwände.
- Gelb steht für den Gegensatz zum Kritiker in schwarz. Der „Träger“ des gelben Denkhutes sammelt positive Argumente und verkörpert den realistischen Optimismus. Er denkt in objektiven Chancen und Vorteilen.
- Grün steht für Innovation, Fortschritt und Assoziation. Teilnehmer in dieser Rolle ist vorbehalten, neue Ideen zu entwickeln und kreative Vorschläge zu produzieren. Kritik oder Bewertung sind fehl am Platz: es gibt keine Denkverbote.
- Blau sorgt für Struktur und Ordnung, Durch- und Überblick. Die Aufgabe der „Träger“ des blauen Denkhutes bestehen darin, Ideen und Gedanken zu sortieren und zu strukturieren.
Anschließend wechseln die Teilnehmer die Farbe („der Hüte“) nach einer vorher festgelegten Reihenfolge bis alle Teilnehmer jede Rolle einmal eingenommen haben. Abschließend werden die entstandenen Ideen, Vorschläge und Gedanken diskutiert und bewertet. Die 6-Hüte-Methode verhindert eine einseitige Betrachtung aus einem Blickwinkel und eröffnet die Möglichkeit, verschiedene Rollen und Perspektiven einzunehmen, um sich besser in den Standpunkt eines anderen hineinversetzen zu können.
6W-Fragen-Methode
S wie 6W-Fragen-Methode
Die 6W-Fragen-Methode ist eine spezielle Fragetechnik, mit der entweder eine grundsätzliche Übersicht oder ein tieferes Verständnis zu einem Thema geschaffen wird. Diese ist vor allem dann zu empfehlen, wenn Kontext und Umstände noch sehr neu sind und wenige Informationen darüber vorliegen. Die Methode besteht aus sechs „W“-Fragen, mit der herausgefunden wird, ob bereits ausreichend Informationen zu einem Thema (oder Problem) vorliegen oder tiefer in dieses eingestiegen werden muss. Einer der häufigsten Fehler in einem zielführenden Kreativprozess oder Innovationsmanagement besteht darin, dass der Problemraum „umgangen“ oder „übersprungen“ wird und alle Beteiligten glauben, das Problem oder die Thematik ausreichend verstanden zu haben. Die Folge sind eine nicht zielführende Lösung sowie Verschwendung von Ressourcen. Durch die Anwendung der 6W-Fragen-Methode soll dies vermieden werden. Behandelt werden die Fragen
- Wer? wie z. B. wer ist beteiligt, wer ist betroffen, wer profitiert oder wer ist der Entscheider? Durch diese Frage werden die involvierten Personen sichtbar und zeigen sich mögliche Überschneidungen, Gemeinsamkeiten aber auch gegensätzliche Positionen und Interessen. Dies ermöglicht ein aktives Touchpoint-Management in einem Projekt und steuert die Kommunikationsstrategie.
- Warum? wie z. B. warum ist ein Thema oder eine Sache überhaupt ein Problem oder warum ist die Lösung desselben wichtig? Bei der Frage geht es um Gründe und Ursachen sowie der Qualifizierung und Quantifizierung eines Problems. Denn in erster Linie hinterfragt diese Frage nicht nur das „warum“, sondern auch das „ob überhaupt“. Gleichzeitig arbeitet diese Frage heraus, was passiert, wenn das Problem nicht behoben wird.
- Was? wie z. B. was ist bekannt oder was ist nicht bekannt stellt zunächst den Inhalt in den Mittelpunkt. Fragen wie „was wurde bereits unternommen“ analysieren die Historie oder „was wäre ideal“ zielen bereits auf Lösungen hin. Im Ergebnis geht es um Aktivitäten und Ereignisse.
- Wann? wie z. B. „wann begann das Problem“ oder „seit wann besteht es“ stellt den Zeitpunkt in den Mittelpunkt. Allerdings wird nicht nur die Vergangenheit im Sinne der Ursachenfindung hinterfragt, da mögliche Fragen auch lauten können „Wann muss etwas verändert werden“ und somit zukunftsgerichtet sind und die Lösungsperspektive betrachten.
- Wo? wie z. B. „wo tritt das Problem auf“ stellt den Ort in den Mittelpunkt, allerdings nicht nur den Ort, wo ein Problem erkannt wurde oder aufgetreten ist, sondern auch den, wo ein Problem gelöst wurde oder zu lösen ist.
- Wie? wie z. B. „wie kann das Problem gelöst werden?“ oder „wie könnte eine Lösung aussehen“ zielen eher auf die Art und Weise der Lösungsfindung ab, hingegen Fragen wie z. B. „wie fühlen sich die Beteiligten?“ eher die Gefühlslage der Beteiligten mit einbezieht. „Wie“ als Fragewort ist sehr mächtig und wird durch die Kombination mit Zusätzen wie z. B. „wie oft“, „wie lange“ oder „wie viel“ in seiner Wirkung verstärkt.
Die 6W-Fragen-Methode ist ein Beispiel dafür, dass Methoden auch sehr einfach und dennoch effizient sein können. Die Fragetechnik hilft ein Thema zu verstehen, zu strukturieren und indirekt auch zu lösen.
Selbstdisruption
S wie Selbstdisruption
Das Wort „Disruption“ leitet sich vom Englischen „to disrupt“ ab und bedeutet so viel wie stören (zerstören), unterbrechen, spalten, zersprengen oder aufbrechen. →Disruptive Innovationen sorgen dafür, dass bestehende Gesetzmäßigkeiten, Mechanismen, Strukturen und Prozesse aufgebrochen und unter Umständen zerstört werden. Das neue Produkt, die neue Dienstleistung oder das neue Geschäftsmodell ist in der Regel einfacher, schneller, günstiger oder bequemer und löst die bisherige etablierte Lösung ab. Den Markt „auf den Kopf stellen“ ist das Synonym für disruptive Innovationen. Revolution statt Evolution lautet das Motto. Daraus abgeleitet beschreibt der Begriff „Selbstdisruption“, wenn Unternehmen mit ihren disruptiven Innovationen nicht nur den Markt radikal verändern, sondern sich selbst Wettbewerb machen. Bei der Selbstdisruption werden Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells. Apple hat wiederholt den Mut dazu bewiesen: beim iPhone, das dem iPod Marktanteile geraubt hat, und beim iPad, das die Umsätze des Mac Computers kannibalisierte. Und mit Smart Glasses steht die nächste Selbstdisruption an, die das Smartphone überflüssig machen wird.
Service Design
S wie Service Design
Der Begriff Service Design beschreibt den methodischen Prozess der Entwicklung und Gestaltung von marktgerechten und kundenorientierten Services und Dienstleistungen. Hierbei nimmt Service Design eine wichtige Schnittstelle der verschiedenen Systeme und Beteiligten ein. Dies betrifft sowohl die Kommunikation zwischen den intern beteiligten und/oder extern betroffenen Menschen als auch die benötigten Mittel und Prozesse. Mit Hilfe spezifischer Methoden werden in mehreren Phasen eines aufgeteilten Prozesses die Schnittstellen der Interaktion zwischen Anbieter (in der Regel Unternehmen) und Empfänger (in der Regel Kunde) aufgezeigt, bewertet und in ein „Service-Produkt“ umgewandelt. Der methodische Prozess dient unter anderem dazu, dokumentierbare Ergebnisse zu erhalten, die im Folgenden eine Basis für die Weiterentwicklung des Service bieten. Dabei werden verschiedene empirische oder kreative Methoden verwendet, um Nutzeranforderungen, Rollenmodelle, Service-Ergonomie und Marktfähigkeit des Service zu berücksichtigen.
Der Prozess (oder Service Design Sprint) lässt sich in der Regel in fünf Phasen unterteilen:
- Forschungsphase: Mikro- und Makroumfeld werden definiert, Zielgruppen und Ziele der Dienstleistung definiert und bewertet.
- Problemidentifikation: Probleme und Möglichkeiten werden festgestellt. Hierzu werden in der Regel Buyer Personas sowie Customer Journey Maps entwickelt. Außerdem empfiehlt sich eine Stakeholder Map, um das gesamte Ökosystem und die Supply Chain einer Dienstleistung zu betrachten.
- Ideenfindung und -auswahl: Entwicklung verschiedener Lösungsansätze der vorher definierten Probleme.
- Prototyping und Entwicklung: ausgewählte Ideen werden zu Prototypen umgewandelt um zu testen, ob diese umsetzbar sind und so funktionieren, wie es erwartet wurde.
- Implementierung: Finalisierung der Prototypen und Einbindung in den Service. Service Design hat die Aufgabe, die Wirkung zu überprüfen und zu optimieren.
Der Service Design Prozess verläuft iterativ. Immer mehr Touchpoints sind digital. Ein Großteil der Interaktion erfolgt über technische Geräte wie Mobile Devices oder Touchscreens im öffentlichen Raum. Allerdings darf man digitale Services nicht nur auf die Technologie beziehen. Denn Service Design betrifft nicht nur das Gestalten von Interfaces und User Experience, sondern umfasst auch Prozesse, Strukturen und Organisationsmodelle innerhalb von Unternehmen. Es bildet eine Schnittstelle zwischen Business zwischen Vertrieb, Marketing, Design und Technologie sowie der gesamten Supply Chain. Dem entsprechend verbindet Service Design viele Disziplinen wie Produktdesign, User Experience Design, Interaction Design, Grafikdesign, Interior Design, Architektur, Datenanalyse, Ethnografie und dgl. Die wichtigsten Eigenschaften eines Servicedesigners liegen allerdings in der Empathie, dem Einfühlungsvermögen und einem ausgeprägten Zielgruppenverständnis, um die Bedürfnisse, Treiber, Motivationen und Probleme der späteren Nutzer zu erkennen.
Service Design ist kundenzentriert und lösungsorientiert, nachhaltig und ganzheitlich zu sehen sowie methodisch, systemisch und interdisziplinär in der Umsetzung. Durch die Interaktion mit dem Kunden, der permanenten Weiterentwicklung von Technologie sowie Automation von Prozessen zwischen Unternehmen und innerhalb der eigenen Organisation kommen im Service Design agilen Methoden zum Einsatz, da der Prozess aus Idee und Konzept, Design und Entwicklung sowie Validierung und Implementierung nicht linear verläuft, sondern iterativ. Infolgedessen muss auch der Methodenkoffer geeignet sein und immer individuell angepasst werden. Hierzu gehören verschiedene Service Design Tools wie z. B. Buyer Personas, Customer Journey Maps, User Flows, Service Blueprinting und natürlich Rapid Prototyping sowie User Experience und Usability Testing. Nur so können Probleme und Bedürfnisse von Kunden objektiv erkannt und ganzheitlich verstanden werden. Es ist wichtig zu erkennen: auch wenn die Interaktion bei digitalen Serviceangeboten immer mehr in digitale Räume oder Touchpoints verlagert werden, geht es im Service Design immer um Menschen und deren Bedürfnisse. Service Design schafft in erster Linie Erlebnisse für Menschen und Mehrwerte für Kunden. Service Design beeinflusst, wie gut und effizient diese Angebote die Bedürfnisse und Emotionen der Nutzer anspricht.
Serviceinnovationen
S wie Serviceinnovationen
Serviceinnovation ist die Entwicklung und erfolgreiche Implementierung innovativer Services und mehrwertbasierten Dienstleistungen. Diese kann Kernkompetenz eines Unternehmens sein, wenn Services und Dienstleistungen das eigentliche Geschäftsmodell darstellt. In der Regel beschreibt Serviceinnovation aber einen zusätzlichen Service zu einem Produkt, einer Dienstleistung oder einem speziellen Angebot, um den Absatz zu fördern, die Wertschöpfung zu verlängern oder einen einzigartigen Wettbewerbsvorteil zu schaffen. Kostenlose Dienstleistungen im Rahmen des Marketings sollten hierzu nicht gehören.
Die Entwicklung von Serviceinnovationen ist Teil des Innovationsmanagements in Unternehmen und wird über einen Innovationsprozess von der Ideenentwicklung über die Entwicklung von Prototypen bis hin zur erfolgreichen Umsetzung strukturiert. Durch die zunehmende Digitalisierung der herkömmlichen Geschäftsmodelle bietet digitales Servicedesign die Möglichkeit, analoge Geschäftsmodelle digital zu unterstützen und/oder neue digitale Geschäftsmodelle zu entwickeln. Serviceinnovationen spielen hierbei eine immer wichtigere Rolle, auch weil in den meisten Branchen über Produkte in der Regel keine Differenzierung und Wettbewerbsvorteile erzielt werden.
Erfolgreiche Serviceinnovationen basieren auf einem tiefen Zielgruppenverständnis und einer hohen Kundenempathie. Beides ist unerlässlich, um sich bei der Entwicklung von Serviceinnovationen mit Bedarfen und Bedürfnissen, Problemen und Anforderungen seiner Bestandskunden und potenziellen Neukunden tiefgreifend und objektiv auseinander zu setzen. Die Gewinnung dieser Customer Insights erfolgt über unterschiedliche Methoden wie z. B. Kundeninterviews, die Begleitung von Kunden im Tagesgeschäft, die Analyse und Identifizierung der erfolgskritischen Faktoren im Geschäftsmodell der Kunden und/oder in der Auswertung von Kundenanfragen und -beschwerden. Aus den Erkenntnissen werden Chancenfelder für Serviceinnovationen abgeleitet.
Serviceinnovationen haben einen besonderen Nachteil: Im Gegensatz zu technologischen oder Produktinnovationen, die über einen längeren Zeitraum entwickelt wurden, lassen sich Serviceinnovationen relativ einfach entwickeln. Oftmals ist es „nur“ eine pfiffige Idee, die schnell umgesetzt werden kann. Dem entsprechend fehlt ihnen mittel- oder langfristig das Alleinstellungsmerkmal, wenn die Innovation nicht über Schutzrechte abgesichert werden kann. Wettbewerber und andere Unternehmen können erfolgreiche Serviceinnovationen schnell kopieren und nachahmen, ausgenommen wenn ein Unternehmen mit dieser Serviceinnovation in Verbindung gebracht wird. Deshalb ist bei der Entwicklung von Serviceinnovationen umso wichtiger, eine hohe Customer Experience zu erzielen und mehrwertbasierte Dienstleistungen anzubieten und diese permanent weiter zu entwickeln und immer wieder mit den Anforderungen von Kundenseite abzugleichen. Serviceinnovationen sind kein Einmalangebot, sondern müssen zum Leistungsportfolio werden, Produkte und Dienstleistungen sinnvoll abzurunden. Da Serviceinnovationen die neue Wertschöpfung für Unternehmen wird, sollten sie idealerweise zur DNA im Geschäftsmodell und strategisch in der Unternehmensausrichtung verankert werden.
S-Kurven-Modell
S wie S-Kurven-Modell
Das S-Kurven-Modell ist ein Instrument im strategischen Innovationsmanagement. Es baut auf dem →Technologielebenszyklus-Modell nach Arthur D. Little auf und basiert auf der Annahme, dass technische Entwicklungen in einem idealtypischen Lebenszyklus und somit im Rahmen ihrer Weiterentwicklung an Leistungsgrenzen stoßen. Das Modell dient der Erkennung von möglichen technischen Sprüngen und unterstützt den Entscheidungsprozess in Unternehmen, zu einer neuen Technik zu wechseln oder eine solche zu entwickeln. Die S-Form dient hierbei der graphischen Darstellung für das Verhältnis zwischen dem Aufwand für die Verbesserung eines Produktes oder Prozesses und dem Ergebnis, die man durch diese Entscheidung erzielt. Die Steigung der Kurve beschreibt hierbei die Zunahme an Leistungsfähigkeit durch zusätzliche Maßnahmen von Forschung und Entwicklung, so dass das Modell die Produktivität von F&E-Ressourcen misst. Mithilfe des S-Kurven-Modells kann das Wettbewerbspotenzial von Technologien in Abhängigkeit von der Zeit ermittelt werden. Hierbei unterscheidet man verschiedene Phasen:
- die Entstehungsphase (Forschung und Entwicklung),
- die Wachstumsphase,
- die Reifephase sowie
- die Phase der Alterung bzw. der Abschöpfung.
und differenziert zwischen technologischen und strategischen Lebenszyklusphasen. Es ist durchaus möglich, dass eine Branche bereits die Reifephase erreicht hat, während sich ihre Schlüsseltechnologie noch in der Wachstumsphase befindet. Die Entwicklung von Technologien ist dabei gekennzeichnet durch ihre Kapazitätsauslastung während der Nutzungsdauer sowie ihre strategische Bedeutung in den einzelnen Branchen. Aufgrund der Dynamik in den technischen Entwicklungen ist es mittlerweile nicht ungewöhnlich, dass Technologien nicht mehr den kompletten Lebenszyklus durchlaufen, da sie bereits während der Wachstums- oder Reifephase durch andere verdrängt werden. Hierfür kann es unterschiedliche Gründe geben: die ursprüngliche Leistungsfähigkeit wurde überschätzt oder ist für das wirtschaftliche Umfeld nicht (mehr) erforderlich oder andere Technologien erweisen sich als leistungsfähiger und rücken somit in den Vordergrund.
Das S-Kurven-Modell visualisiert den optimalen Zeitpunkt für den Übergang von einer bestehenden auf eine neue oder innovative Technologie. Dadurch können Investitionen in unrentable Technologien reduziert oder im Idealfall gleich vermieden und in innovative Technologien gesteckt werden, die eine höhere Erfolgsaussicht haben. Die Bestimmung des optimalen Übergangszeitpunktes ist nicht nur ein finanzieller Aspekt, sondern schafft Wettbewerbsvorteile. Für die Anwendung des S-Kurven-Modells werden vier Schritte empfohlen:
- Identifikation technologischer Alternativen ohne Bewertung
- Identifikation relevanter Leistungsparameter für relevante Produktnutzergruppen
- Ermittlung technologischer Leistungsgrenzen inkl. einer numerischen Schätzung der identifizierten limitierenden Mechanismen
- Ermittlung der S-Kurve sowie Einzeichnung der Technologiegrenzen als horizontale Linien, so dass eine Prognose der künftigen Leistungsperformance möglich wird.
→Technologietyp
Small Data
S wie Small Data
Der Begriff Small Data beschreibt genau das Gegenteil zu →Big Data, der häufig synonym für Digitalisierung verwendet wird. Im Gegensatz zu Big Data versteht man unter Small Data die Daten, die in einem Umfang und Format auftreten, die überschaubar, zugänglich und realisierbar sind. Dabei liefern sie kompakte und konsumierbare Informationen, die eine bestimmte Aufgabenstellung beantwortet und dem Menschen zugänglich macht. Während Big Data zur Analyse mittels künstlicher Intelligenz verwendet wird, hilft Small Data beim Verständnis von Prozessen, wie Suchverläufen, Vorhersagen oder Warnungen. Small Data wird immer dann angewendet, wenn es um den Blick hinter die Kulissen geht, sei es bei Customer Insights oder Analysen des Nutzerverhaltens.
Smart
S wie Smart
SMART ist ein Akronym aus dem Englischen und steht für Specific (Spezifisch), Measurable (Messbar), Achievable (Erreichbar), Reasonable (Angemessen) und Time-bound (Terminiert). Die Smart-Formel wurde durch den Managementforscher und Unternehmensberater Peter Drucker entwickelt und dient der eindeutigen Definition von Zielsetzungen, um alle Aspekte zu erfassen. Ziele müssen demnach so präzise wie möglich und eindeutig definiert sein. Ziele müssen messbar sein, so dass die Messbarkeitskriterien vorher bekannt sein müssen. Ziele sollten relevant, attraktiv bzw. erstrebenswert sein und müssen erreichbar und akzeptiert sein. Das gesteckte Ziel muss möglich und realisierbar sein. Des Weiteren muss ein Ziel mit einem fixen Datum festgelegt werden können. Die Entwicklung der Smart-Formel ist das Ergebnis aus der Zielsetzungstheorie (englisch Goal-Setting-Theory) von Locke und Latham. In Anlehnung an John Withmore (1994) spricht man auch von der Smart-Pure-Clear-Formel.
Smarte Produkte
S wie Smarte Produkte
Ein Produkt wird als smart oder intelligent bezeichnet, wenn dieses über Informationen zum eigenen Herstellungsprozesses verfügt und in der Lage ist, während der Fertigungs- und Nutzungsphase Daten zu sammeln und zu kommunizieren. Diese Daten werden in der Regel in einer Cloud hochgeladen, wo sie gesammelt und ggf. verdichtet werden. Dafür werden Chips, Mikroprozessoren und eingebettete Systeme entwickelt. Diese stellen sicher, dass z. B. Konfigurationsdaten auf einer Komponente abgelegt werden, damit die Inbetriebnahme von Maschine und Produktionslager schneller erfolgen und manuelle Konfigurationsschritte entfallen können. Smarte Produkte kommunizieren mit Maschinen und teilen ihnen z. B. mit, welcher Produktionsschritt als nächstes erfolgt. Somit sind smarte Produkte ein wesentlicher Baustein in der →Digitalisierungsstrategie im Bereich der →Industrie 4.0. Durch ihren Einsatz werden industrielle Prozesse vereinfacht, optimiert und Problemstellen identifiziert, um Störungen im Ablauf zu minimieren. Hierzu sind intelligente, vernetzte Systeme notwendig. Diese stellen in der Produktion einen möglichst hohen Grad der Selbstorganisation sicher. Durch eine derartige →Smart Factory sollen nicht nur einzelne Produktionsabläufe optimiert werden, sondern die komplette Wertschöpfungskette.
Smarte Produkte werden auch als →Cyber-Physische Systeme bezeichnet, die um smarte (intelligente) Services ergänzt werden. Hinsichtlich des Komplexitätsgrades unterscheidet man smarte Einzelprodukte, vernetzte Produktsysteme (Service-Plattformen) und hochkomplexe, sektorenübergreifende Produktsysteme (komplette Ökosysteme, die auch als Systems of Systems bezeichnet werden). Smarte Produkte vereinen sowohl materielle als auch immaterielle Komponenten und werden zunehmend als smarte Produkt-Service-Systeme (PSS) bezeichnet.
Smarte Produkte erfordern eine völlig neue, mehrstufige Technologieinfrastruktur. Dieser Technology Stack fungiert als Plattform und ermöglicht den Austausch der Daten zwischen Produkt und Nutzer und integriert Daten aus dem Ökosystem. Smarte Produkte werden je nach Leistungsfähigkeit und „Intelligenzgrad“ in vier aufeinander aufbauende Kategorien unterteilt: Smarte Produkte der
- Stufe können den Zustand ihres Umfelds durch eingebaute Sensoren und externe Datenquellen überwachen, so dass sie nicht nur Erkenntnisse über ihre Leistung und Anwendung liefern, sondern auch bei Veränderungen im Umfeld situative Maßnahmen eingeleitet werden können.
- Stufe können über ein umfassendes Monitoring ferngesteuert werden. Die Funktionen, Leistung und Anwendung dieser smarten Produkte können in bisher nicht gekanntem Ausmaß an individuelle Anforderungen angepasst werden, so dass Produkte dieser Kategorie einen hohen Personalisierungsgrad aufweisen.
- Stufe kombinieren die Fähigkeiten der 1. und 2. Kategorie und optimieren kontinuierlich ihre Funktionen. Hierzu kommen statistische Verfahren und Methoden der Smart Data Analytics zum Einsatz, um prädiktive Diagnosen durchzuführen durch die z. B. mögliche Produktstörungen vorhergesagt werden können. Smarte Produkte dieser Kategorie finden ihre Anwendung häufig in vernetzten Systemen wie z. B. smart Home.
- Stufe bauen auf die zuvor genannten Fähigkeiten auf und führen zur höchsten Kategorie. Smarte Produkte dieser Kategorie sind autonome Produkte bzw. Systeme mit der Fähigkeit, sich selbst zu diagnostizieren, zu verbessern bzw. instand zu halten. Diese Produkte haben einen sehr hohen Personalisierungsgrad und können nicht nur eigenständig mit anderen smarten Produkten dieses Levels kommunizieren sondern auch selbständig kooperieren.
Die spezifischen Eigenschaften von smarten Produkten können in vielen Bereichen eingesetzt werden. Allerdings werden ihre Vorteile in erster Linie in drei wesentlichen Anwendungsbereichen genutzt:
- Virtual & Augmented Reality
- Predective & Preventive Maintenance
- Mustererkennung von unstrukturierten Daten
Die technische Infrastruktur von smarten Produkten besteht aus drei Kernelementen:
- physische Komponente aus mechanischen und/oder elektronischen Bauteilen,
- intelligente Komponenten aus Sensoren, Aktoren, Mikroprozessoren, Steuerungs- und Speicherelementen, Software, ein integriertes Betriebssystem und eine digitale Bedienoberfläche,
- Vernetzungskomponenten aus Schnittstellen, Sendern, Protokolle und Netzwerken, mit denen die Kommunikation zwischen smarten Produkten und ihrem Umfeld ermöglicht wird.
Die Entwicklung von smarten Produkten wird die Geschäftsmodelle und -prozesse von Unternehmen nachhaltig verändern. Die Auswirkungen zunehmender Vernetzung werden die industriellen Prozesse wesentlich verändern, aber auch in der Supply Chain, im Vertrieb, Marketing und Service. Smarte Produkte brechen die bisherigen Strukturen in Unternehmen auf und „erzwingen“ eine bereichsübergreifende Koordination.
Durch die ständige Kommunikation und Rückkopplung smarter Produkte mit ihren Ökosystemen, selbstlernende Algorithmen und die ständige Skalierung der Rechenleistung werden smarte Produkte neue Wertschöpfungsoptionen schaffen, innovative Serviceangebote kreieren und die Kundenorientierung und -einbindung auf ein völlig neues Level heben.
SOM
S wie SOM
SOM ist ein Akronym für den englischen Begriff Serviceable Obtainable Market oder Share of Market und grenzt im weiteren Sinne das theoretisch mögliche Marktpotenzial (→TAM) gezielt ein, um einen realistischen Absatzmarkt bzw. das Marktvolumen zu definieren. SOM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren. Das in SOM definierte Marktvolumen ist die im Businessplan relevante Kenngröße für das eigene Unternehmensziel und bestimmt dadurch die Ressourcen. Der wesentliche Unterschied zwischen →SAM und SOM ist die Berücksichtigung der konkreten Marktsituation wie Markteintrittsbarrieren, Wettbewerb und dgl. sowie die internen Engpässe zum Erreichen der Ziele. Hierzu gehören die verfügbaren Kompetenzen, Kapazitäten und Ressourcen.
SPRIND
S wie SPRIND
→Agentur für Sprunginnovation
Sprinkler-Strategie
S wie Sprinkler-Strategie
Bei der Sprinkler-Strategie handelt es sich um eine Expansionsstrategie, bei der Unternehmen ausländische Absatzmärkte gleichzeitig erschließen. Gleichzeitig ist hierbei nicht wörtlich gemeint, bezeichnet aber innerhalb eines relativ kurzen Zeitraumes (z. B. einige Monate bis maximal zwei Jahre). Das Gegenstück zu dieser →Timing-Strategie, die auch als Diversifikationsstrategie oder Akkumulationsstrategie bezeichnet wird, ist die →Wasserfallstrategie. Bei der Sprinkler-Strategie wird der Ressourceneinsatz diversifiziert. Die selektierten Märkte werden gleichzeitig mit dem oder den Produkten bzw. Angeboten bedient, was Märkte übergreifend zu einem parallel verlaufenden Produktlebenszyklus führt und diesen, international betrachtet, verkürzt. Das Ziel der Sprinkler-Strategie besteht darin, die Markteintrittsrisiken (Risikodiversifikation) auf eine Vielzahl von Ländern und/oder Märkten zur Vermeidung einer hohen Abhängigkeit von einem oder wenigen ausländischen Märkten zu verteilen. Der Vorteil liegt darin, dass relativ schnell Marktanteile gesichert werden können. Gleichzeitig ist diese Form der Expansionsstrategie je nach Produkt oder Angebot mit hohen Investitionskosten, einem hohen Managementeinsatz, Unternehmensressourcen und relativ hohen Risiken verbunden. Je physischer ein Produkt ist, umso mehr Aufwand und Kapitaleinsatz ist notwendig. Selbst digitale Dienstleistungen, bei denen man auf den ersten Blick annehmen sollte, dass sich diese schnell, einfach und gleichzeitig in mehrere Märkte ausrollen lassen, können einen hohen Aufwand für Übersetzungen in andere Sprachen sowie Anpassung an (japanische, chinesische) Schriftzeichen, kulturelle Unterschiede usw. Die meisten Risiken liegen dem entsprechend in einer dysfunktionalen Expansionsstrategie, wenn z. B. die Marktbearbeitung in unterschiedlichen Märkten weitgehend standardisiert erfolgt und regionale Besonderheiten wie z. B. Preisgefüge, Qualitätserwartungen, Kultur von Geschäftsbeziehungen, Wettbewerbsverhalten etc. einzelner Märkte ignoriert werden. Hinzu kommt, dass durch die Verteilung der Unternehmensressourcen das Risiko steigt, dass in bestimmten stärker umkämpften Märkten nicht genügend Ressourcen zur Verfügung gestellt werden können, um gegen den Wettbewerb zu bestehen.
Sprunginnovationen
S wie Sprunginnovationen
Sprunginnovation ist ein Synonym für radikale oder →disruptive Innovationen. Typisch für diese Innovationen ist, dass sie ihr Umfeld nachhaltig verändern. Dies kann entweder durch die Schaffung eines völlig neuen Marktes geschehen oder in dem bestehende Branchen oder Marktsegmente grundlegend „umgekrempelt“ werden. Der Begriff wird auch verwendet, wenn ein massives technologisches, soziales oder ökologisches Problem gelöst wird. Bekannte Beispiele für Sprunginnovationen sind z. B. der Buchdruck, Antibiotika wie Aspirin, die Dampfmaschine, das Radio und Fernsehen oder auch das Elektronenmikroskop und die Aufzugsbremse. Sprunginnovationen in jüngerer Vergangenheit sind das Internet, das MP3-Format, das Smartphone oder der 3D Druck.
St. Galler Geschäftsmodell-Navigator
S wie St. Galler Geschäftsmodell-Navigator
Zur Entwicklung, Visualisierung und anschließenden Bewertung von Business Model Innovation wird zunächst das bestehende Geschäftsmodell dargestellt und einem Stresstest unterzogen. Neben dem bekannten Business Model Canvas und seinen Adaptionen kann hierfür auch das Business Model Navigator Konzept der Universität St. Gallen verwendet werden. Neben den neun Dimensionen im Canvas beschäftigt sich der Business Model Navigator mit den Mustern und Mechanismen von Geschäftsmodellen. So hat die Universität St. Gallen herausgefunden, dass die meisten Geschäftsmodellinnovationen auf einer Rekombination von lediglich 60 Mustern (Pattern) basieren. Eines dieser 60 Beispiele sind der Verkauf von günstigen Geräten wie Drucker, Kaffeemaschinen oder Nassrasierer und dem Verkauf der hierzu im Vergleich teuren Nachfüll-Produkte wie Druckerpatronen, Kaffeekapseln und Rasierklingen. Daraus ergibt sich für Business Model Innovation folgende Vorgehensweise: In der ersten Phase wird das bestehende Geschäftsmodell analysiert. Dieses auf traditionellen Werten aufgebaute und über Jahre auf Effizienz getrimmte Geschäftsmodell orientierte sich an den Umfeldbedingungen und der eigenen Umsetzungsfähigkeiten. Ideenfindung fand im bekannten Terrain statt und ist hauptursächlich, dass Unternehmen keine echten Innovationen entwickelt haben, sondern die bestehenden immer nur weiter entwickelt oder modifiziert haben. Beim Business Model Navigator Konzept liegt der methodische Ansatz darin, neue Geschäftsmodelle und/oder deren Monetarisierung dadurch zu kreieren, in dem die vorhandenen Muster mithilfe der 60 Business Cards neu kombiniert werden. Die neuen Ideen werden anschließend systemisch bewertet und einem Protyping und User-Testing unterzogen. Somit bekommt man erste Indikatoren, ob das neue Modell in der Praxis funktionieren wird. Bei der abschließenden Implementierung sollten alle Beteiligte rechtzeitig und aktiv mit eingebunden werden, da Menschen Veränderungen grundsätzlich skeptisch gegenüberstehen, egal wie vielversprechend etwas Neues klingt.
Synnovation
S wie Synnovation
Über Jahrhunderte akkumulierte sich Wissen durch das Prinzip der Entdeckung. In den letzten Jahrzehnten wechselte diese Methode. Experimentelle „Settings“ trieben gezielt und gesteuert die Wissensermittlung und -verbreitung voran. Heute wurde erkannt, dass diese Methode erschöpft ist, weil die meisten Experimente nur noch dazu tendieren, Antworten auf längst bekannte Fragen zu formulieren. Die Herausforderung in der Zukunft besteht darin, neue Fragestellungen zu generieren. In neuen agilen Methoden wie z. B. →Design Thinking oder →Cross Innovation findet man bereits erste syntheseorientierte →Innovationsmethoden. Innovations- und Zukunftsforscher sind sich längst einig, dass →Innovationen viel zu lange mit dem Tunnelblick der Experten betrachtet und bewertet und in vielen Fällen auch verhindert wurden. Wirkliche Innovationen entstehen in inhomogenen agilen Einheiten abseits zentralistischer Organisationsstrukturen an den Rändern der klassischen Märkte in kreativen Ökosystemen, in denen ein Infragestellen des Status Quo zur DNA gehört und ungeplante Innovationen nach dem Zufallsprinzip einen systemischen Ansatz folgen.
Über Jahrzehnte basierten Innovationen auf wissenschaftlicher Grundlagenforschung hin zu einem →technologiegetriebenen Push-Ansatz. In der Regel handelt es sich um einen langjährigen und aufwändigen Entwicklungsprozess (auch →Innovationspipeline oder →Stage-Gate-Prozess genannt), in dem neue Materialien, Produkte, Technologien oder Verfahren entstanden sind. Durch die rasanten Marktveränderungen (auch als →VUCA bezeichnet) stößt das herkömmliche Innovationsmodell zunehmend an seine Grenzen, wobei dies auch in der Vergangenheit oft akribisch am Markt vorbei entwickelt hat.
Ein neuer Ansatz sind Synnovationen, mit denen selbst der Innovationsprozess innovativ gedacht und entwickelt wird. Innovationen werden nicht mehr in abgeschotteten Forschungs- und Entwicklungsabteilungen von Unternehmen ausgebrütet, sondern in offenen und kollaborativen Multi-Stakeholder-Prozessen agil und iterativ entwickelt (auch →open Innovation genannt). Neben der frühzeitigen aktiven Einbindung der Kundenperspektive werden interdisziplinäre Kompetenzen anderer Branchen und Disziplinen mit eingebunden. Open Innovation ist hierbei der Sammelbegriff für ein ganzes Set neuer Methoden und Ansätze, die den Werkzeugkoffer von Synnovationen bilden. Synnovation bezeichnet eine neue und systemische Innovationskultur, bei der die bisherige Technologieausrichtung (Push-Ansatz) zu einer kundenzentrierten Marktausrichtung (Pull-Ansatz) entwickelt wird, die mehrschichtig und multidimensional angelegt ist und ihren „genialen“ Moment aus der Synthese zieht. In dem Zusammenhang fällt oft der Begriff →„Serendipity“.
Szenario-Impakt-Analyse
S wie Szenario-Impakt-Analyse
Szenarien sind eine Projektion über die Entwicklung in Zukunft. Ausgehend von einer definierten Situation in der Gegenwart wird ein definierter Zeitraum betrachtet und prognostiziert, wie sich dieses Segment bis dahin verändern wird. Je unspezifischer das Segment und/oder länger dieser Zeitraum angegeben wird, umso mehr Möglichkeiten an Szenarien gibt es. Darüber hinaus gibt es immer unvorhergesehene Ereignisse, die auf diese Szenarien Einfluss nehmen und deren Auswirkungen unterschiedlich stark sein können. Szenarien helfen zu definieren, welche Art von positiven oder negativen Entwicklungen möglicherweise auftreten könnten. Man kann annehmen, dass sich grundsätzlich nichts oder kaum etwas ändert oder eben, dass sich Dinge drastisch verändern – entweder in eine positive oder negative Richtung. Angesichts dieser Unsicherheit helfen Szenarien, um die Auswirkungen eines Best-Case oder Worst-Case zu simulieren.
Hierfür nutzt man die Szenariotechnik, die ihre Wurzeln in der Wirtschaftswissenschaft hat. Unterschieden werden sechs Schritte:
- Definition des gegenwärtigen Umfelds: Analyse des Branchenumfelds sowie des eigenen Ökosystems und welche Veränderungen eine positive oder negative Auswirkung auf die Zukunft des Unternehmens haben können. Einflussfaktoren können technologische Entwicklungen, Geschäftsmodelle, gesetzliche Vorgaben, Kundenpräferenzen oder Wettbewerbsverhalten sein. Der systematische Ansatz hilft, potenzielle Chancen und Risiken zu erkennen und Schlüsselfaktoren zu identifizieren. Diese sind essenziell, um eine strategische Robustheit zu entwickeln und um auf das Eintreten mehrerer Szenarien vorbereitet zu sein. Daher ist der definierte Zeitraum entscheidend. Denn für einen kürzeren Zeithorizont gibt es eher quantitative Ansätze, während auf bei einem längeren Zeithorizont qualitative Ansätze von Vorteil sind.
- Entwicklung von Prognosen: Relevante Aussagen zum eigenen Umfeld werden qualifiziert und quantifiziert, um unterschiedliche Projektionen von Schlüsselfaktoren abzuleiten. Diese dienen als Vision und geben Orientierung und Leitplanken, um unspezifischen Spekulationen vorzubeugen. Leitplanken definieren sich über die drei grundlegenden Faktoren: dem Ziel, dem Zeithorizont und den Daten.
- Identifizierung der wichtigsten Einflussfaktoren: in einer Aktiv-Passiv-Matrix werden im ersten Schritt die in Frage kommenden Einflussfaktoren verdichtet. Aktive Faktoren sind diejenigen, die eine Entwicklung anderer Faktoren vorantreiben; passive Faktoren dagegen die, die von anderen angetrieben werden.
- Gewichtung der Schlüsselfaktoren: durch die Quantifizierung und Qualifizierung der relevanten Schlüsselfaktoren kann der Impakt im definierten Umfeld sowie deren Auswirkungen für das eigene Unternehmen identifiziert werden. Abgerundet wird diese Phase mit einer Risikoanalyse.
- Erstellung von Projektionen: auf Basis dieser Schlüsselfaktoren werden Projektionen erstellt, wie sich diese in Zukunft entwickeln. Parallel muss eine Wahrscheinlichkeitsprognose erstellt werden, ob und welche dieser Faktoren ggf. gleichzeitig auftreten können (Cross-Impact-Analyse).
- Beschreibung der Projektionen innerhalb der Szenarien: Schlussfolgerungen für das eigene Unternehmen und Festlegung der strategischen Optionen, wie man auf mögliche Auswirkungen für das Unternehmen reagieren oder den Prozess pro-aktiv selbst gestalten kann. Wichtig ist, dass diese nicht nur für ein Szenario entwickelt wird, sondern alle in Frage kommenden Szenarien beinhalten sollte.
Der letzte Punkt wird in Unternehmen häufig vernachlässigt. Gerade die aktuellen Ereignisse wie z. B. die COVID-Krise oder nachgelagert die Unterbrechung / Verzögerung der Lieferketten verdeutlichen die Notwendigkeit einer kontinuierlichen, strategischen Vorausschau und der damit zusammenhängenden Planung.
T wie TAM
T wie TAM
TAM ist ein Akronym für den englischen Begriff Total Addressable Market oder Total Available Market und beschreibt im weiteren Sinne das theoretisch mögliche Marktpotenzial, wenn es keinerlei Einschränkungen durch Markteintrittsbarrieren, Wettbewerb oder Ressourcen geben würde. TAM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren.
T wie TAM-SAM-SOM-Modell
Das TAM-SAM-SOM-Modell hat sich vor allem bei Startups etabliert und liefert eines der wichtigsten Bewertungskriterien für eine Geschäftsidee: die Marktgröße. Die drei Abkürzungen stehen für die TAM-, SAM- und SOM-Märkte und sind jeweils Akronyme. Die Abkürzung →TAM steht für Total Addressable Market oder Total Available Market und beschreibt das größtmögliche Marktpotenzial, ohne irgendwelche Limitierungen durch exogene Einflüsse oder interne Ressourcen zu berücksichtigen. Daher ignoriert TAM jeglichen Wettbewerb oder Markteintrittsbarrieren, geografische Entfernungen oder Sprachbarrieren. Und selbst mögliche Kapazitätsengpässe und/oder fehlende Kompetenzen und/oder Ressourcen werden erst einmal ausgeblendet. TAM-Märkte sind global und monopolistisch und daher gerade für Startups völlig unrealistisch und für Investoren uninteressant. Die Abkürzung →SAM steht für Serviceable Addressable Market oder Served Available Market und beschreibt den Markt, der mit dem aktuellen Geschäftsmodell grundsätzlich angesprochen werden kann. Das theoretische Marktpotenzial wird zum realistischen Marktpotenzial. Im Gegensatz zum TAM werden die Marktsegmente ausgeschlossen, die zunächst nicht bedient werden (können). Für Investoren ist der SAM-Markt interessant, da er aufzeigt, welches Potential die Geschäftsidee mittelfristig hat. Die Abkürzung SOM steht für Serviceable Obtainable Market oder Share of Market und beschreibt den Teil innerhalb des SAM-Marktes, der realistisch bedient werden kann. Er definiert das Marktvolumen für das eigene Geschäftsmodell und grenzt Zielgruppen, Absatzmärkte und das Portfolio ein. Somit zeigt SOM auf, welche Umsätze in der ersten Wachstumsphase des Startups erzielt werden können. SOM ist somit kurzfristig, SAM mittelfristig und TAM langfristig ausgelegt.
Das TAM-SAM-SOM-Modell ist in erster Linie ein strategisch-analytisches Planungstool und dient der Bestimmung von Absatzmärkten. In der praktischen Anwendung zeigt sich allerdings, dass diese Methode in erster Linie ein Kommunikationsinstrument ist und dazu dient, ein gemeinsames Verständnis über Zielmärkte zu schaffen und Planungsannahmen zu argumentieren.
Kritik am TAM-SAM-SOM-Modell: Bei der Anwendung dieser Methode werden häufig zwei wiederkehrende Fehler beobachtet. Der erste Fehler besteht darin, den SOM nur als kleinen Anteil des SAM oder den SAM nur als kleinen Anteil eines sehr großen TAM zu definieren, ohne eine seriöse Zielmarkteinschätzung abzugeben. Dieser wird aus dem Englischen übersetzt als so genannter „1%-aller-Chinesen-Fehler“ bezeichnet. Dieser beschreibt den idealisierten TAM z. B. in der Form: „Wenn wir nur 1% aller Chinesen dazu bekommen könnten, unser Produkt zu kaufen,…“ wissentlich, dass es nahezu unmöglich ist, 1% aller Chinesen mit einem Angebot zu erreichen. Der zweite Fehler besteht darin, dass jeder Absatzmarkt, der theoretisch möglich wäre, auch als Marktpotenzial angesetzt wird. Bei einer Weltbevölkerung von knapp 8 Milliarden Menschen wäre es illusorisch zu glauben, dass 4 Milliarden Männer oder 4 Milliarden Frauen für die jeweils in Frage kommenden Produkte oder Angebote erreichbar sind, auch wenn dies theoretisch möglich wäre. Daher sollte auch der TAM nur das größtmögliche Marktpotenzial beschreiben, dass mit den üblichen Ressourcen realistisch erreicht werden kann. Deshalb wird der TAM immer häufiger als potenziell verfügbarer Markt bezeichnet und der SAM als bedienbarer verfügbarer Markt.
T wie Technologieführer
Technologieführer ist ein Begriff aus den innovativen Milieus. Zu ihnen zählen Unternehmen mit einem hohen Innovationserfolg sowie einer starken Technologie-, Wissenschafts-, Forschungs- und Entwicklungsorientierung, die sich u. a in hohen Patent-Aktivitäten widerspiegelt. Technologieführer zeichnet weiterhin aus, dass sie technologische Grenzen kontinuierlich verschieben und immer wieder neue Standards definieren. Sie sind die Spitze der deutschen Innovationslandschaft. Nur sechs Prozent der Unternehmen gehören zu diesem Milieu. Die meisten von ihnen kommen aus den Bereichen Chemie, Pharma, Kunststoff sowie aus der Metall- und Elektroindustrie.
→ innovative Milieus
T wie Technologie-Lebensszyklus-Modell
Um den Technologie-Lebenszyklus zu veranschaulichen, gibt es mehrere Modelle. Die bekanntesten sind die Modelle von Arthur D. Little sowie von Ford / Ryan. Das Technologie-Lebenszyklus-Modell von Arthur D. Little unterscheidet 4 typische Phasen, die eine Technologie durchläuft: Entstehung, Wachstum, Reife und Alterung. Ford / Ryan dagegen unterscheiden in ihrem Technologie-Lebenszyklus-Modell 6 Phasen: Entstehung der Technologie, Entwicklung zur Anwendungsreife, Erstanwendung der Technologie, Verbreitung und wachsende Technologieanwendung sowie Technologiereife und Technologierückgang.
T wie Technologietyp
Unternehmen haben mehrere Optionen bei der Auswahl von Technologiefeldern und damit verbundenen Strategien. Verfügt ein Unternehmen oder ein Geschäftsfeld über eine starke Technologie sowie eine starke Marktposition, kann die Strategie der Technologieführerschaft verfolgt werden. Als Innovationsführer kann das Unternehmen Standards setzen und Trends und Entwicklungen beeinflussen. Es nutzt seinen →First Mover Advantage. Dem entsprechend wird eine hohe Priorität auf Innovationen im technologischen Bereich gelegt. Ist ein Unternehmen dagegen Technologieführer und verfügt nur über eine schwache oder mittlere Wettbewerbssituation, empfiehlt sich die Nischenstrategie an. Diese Unternehmen konzentrieren sich auf eine oder wenige Technologien in einem spezialisierten Marktsegment und streben kein breites Technologiespektrum an. Im umgekehrten Fall – ein Unternehmen besitzt eine starke Markt- und Wettbewerbsposition und dafür keine technologischen Stärken – kauft sich dieses Technologiekompetenzen ein.
Je nachdem, in welcher Lebenszyklusphase sich eine Technologie befindet, wird unterschieden in
- Schrittmachertechnologie,
- Schlüsseltechnologie und
- Basistechnologie.
Vollkommen neue Technologien mit einer großen Unsicherheit und hohem Risiko, allerdings auch großem Potenzial und disruptiver Wirkung, werden als Schrittmachertechnologien bezeichnet. Diesen haben noch keinen Einfluss auf die Wettbewerbsfähigkeit und befinden sich im Entwicklungsstadium.
Werden diese zwar immer noch als neu bezeichnet und bieten die Möglichkeit zur Differenzierung mit einem großen Weiterentwicklungspotenzial, werden aber schon von mehreren Unternehmen eingesetzt, spricht man von Schlüsseltechnologien. Diesen haben bereits einen deutlich größeren Einfluss auf die Wettbewerbsfähigkeit. Dieser Typ von Technologie ermöglicht eine Differenzierungsstrategie. Infolgedessen sollten Unternehmen einige der bereits definierten Schrittmachertechnologien durch Investition selbst zu Schlüsseltechnologien entwickeln. Diese spielt für die Wettbewerbsfähigkeit von Unternehmen eine bedeutende Rolle.
Eine ausgereifte und auf dem Markt etablierte Technologie nennt man dagegen Basistechnologie. Hierbei handelt es sich um ehemalige Schlüsseltechnologien, die allerdings aufgrund ihres Alters im Wettbewerb an Bedeutung verloren haben. Da alle Unternehmen im Wettbewerb diese Technologie beherrschen, eignen sie sich nicht zur Differenzierung, sind aber ein unverzichtbarer Bestandteil von Technologien. Bei einem Übergang von Schlüsseltechnologien zu Basistechnologien sollte die Investitionstätigkeit reduziert werden. In dieser Phase empfiehlt sich eine Abschöpfungs- bzw. Desinvestitionsstrategie. Dies darf nicht mit einer Exitstrategie verwechselt werden, da die Basistechnologie immer noch notwendig ist, um am Markt erfolgreich zu sein.
Basis- bzw. Schlüsseltechnologien, die in unterschiedlichen Branchen und bei unterschiedlichen Anwendungen eingesetzt werden und Effekte zur Rationalisierung oder Effizienzsteigerung hervorbringen (können), werden als Querschnittstechnologien bezeichnet.
→Technologielebenszyklus
T wie Technology Readiness Level (TRL-Skala)
Der Technology Readiness Level (auch als TRL-Skala bezeichnet) bewertet auf einer Skala von 1 bis 9 den Entwicklungsstand oder Reifegrad von neuen Technologien:
- TRL 1: Beobachtung und Beschreibung des Funktionsprinzips (Zeitpunkt bis zur Marktreife liegt bei 8 bis 15 Jahren)
- TRL 2: Beschreibung des technologischen Konzepts sowie die Anwendung einer Technologie
- TRL 3: Experiment und Nachweis der Funktionstüchtigkeit einer Technologie (Zeitpunkt bis zur Marktreife liegt bei 5 bis 13 Jahren)
- TRL 4: Versuchsaufbau bzw. Technologievalidierung im Labor
- TRL 5: Versuchsaufbau bzw. Technologievalidierung unter Einsatzbedingungen
- TRL 6: Demonstration des Prototyps unter Einsatzbedingungen
- TRL 7: Prototyp im Einsatz (Zeitpunkt bis zur Marktreife liegt bei 1 bis 5 Jahren)
- TRL 8: Qualifiziertes System mit Nachweis der Funktionstüchtigkeit im Einsatzbereich
- TRL 9: Qualifiziertes System mit Nachweis des erfolgreichen Einsatzes
Im europäischen Forschungskontext wird das Technology Readiness Level zur systematischen Bewertung von Forschungsprojekten sowie allgemein von Zukunftstechnologien verwendet. Eine systematische Auseinandersetzung mit den TRLs ist notwendig, damit sich eine Technologie von der Konzeption über die Forschung und Entwicklung bis hin zur kommerziellen Vermarktung entwickeln kann. Universitäten und Hochschulen konzentrieren sich im Rahmen von staatlich geförderten Projekten in der Regel auf die TRLs 1 bis 4, während privatwirtschaftliche Unternehmen eher auf die TRLs 7 bis 9 konzentrieren.
TRL 1 wird als Grundlagenforschung bezeichnet, während TRL 2 bis 4 die industrielle oder technologische Forschung beschreibt. TRL 5 bis 8 steht für die experimentelle Entwicklung (Produktdemonstration) und TRL 9 für die Fertigung unter Wettbewerbsbedingungen. Die TRLs 4 bis 7 werden häufig mit dem →„Valley of Death“ in Verbindung gebracht. Die Bezeichnung „Tal des Todes“ steht symbolisch für das Scheitern vieler Forschungs- und Innovationsprojekte, da in dieser Phase oftmals die öffentlichen Förderungen auslaufen und privatwirtschaftliche Unternehmen noch nicht bereit sind, die notwendigen Investitionen bis zur Marktreife aufzubringen. Infolgedessen scheitert die Entwicklung von vielversprechenden Technologien noch vor dem Einsatz.
T wie Ten Types of Innovation
In der Vergangenheit definierten Unternehmen Innovationen hauptsächlich mit der Entwicklung neuer Produkte. Dies ist jedoch nur eine Art von Innovationen. Um die Bandbreite verschiedener Innovationsmöglichkeiten aufzuzeigen, entwickelte das Doblin Team (Deloitte Business Consulting LLP) Ende der 1990-er Jahre das Ten Types of Innovation Framework. Es stellt verschiedene Möglichkeiten dar, um erfolgreiche Innovationen nachhaltig zu entwickeln. Das Framework dient als Werkzeug für die Analyse des Markt- und Wettbewerbsumfeldes sowie zur Diagnose der eigenen Unternehmensperformance. Es identifiziert Nischen sowie Chancen und Potenziale und unterstützt Unternehmen bei der Bewertung von Innovationsprojekten. Hierbei differenziert das Framework drei Hauptkategorien:
- Configuration (Konfiguration): setzt sich mit allen internen Abläufen und Geschäftsprozessen eines Unternehmens auseinander und identifiziert das Geschäfts-, Markt- und Einnahmenmodell, Strukturen und Prozesse sowie Ressourcen
- Offerings (Angebot): konzentriert sich auf die Kernkompetenz eines Unternehmens und das Leistungsversprechen von Produkten und Dienstleistungen, idealerweise mit Differenzierungsmerkmalen bis hin zu Alleinstellungsmerkmalen (USP).
- Experience (Erfahrung): identifiziert die Kundenbeziehungen und kundenorientierten Angebote und Services sowie die Absatzkanäle.
Die Analyse aller großen Innovationen in den letzten Jahrzehnten hat gezeigt, dass diese immer aus einer Kombination von zehn typischen Disziplinen bestehen, welche diesen drei Kategorien zugeordnet werden können. Die 10 Typen heißen:
- Profit Model
- Network
- Structure
- Process
- Product
- Product System
- Service
- Channel
- Brand
- Customer Engagement
Die „Ten Types“ haben keine Hierarchie oder Reihenfolge und sind in dem Framework in drei farbige Kategorien unterteilt. Typen 1 bis 4 sind blau unterlegt und der Kategorie 1 „Konfiguration“ zugeordnet. Typen 5 und 6 sind orange unterlegt und bilden Kategorie 2 „Angebot“. Die Typen 7 bis 10 sind rot unterlegt und stehen für Kategorie 3 „Experience“. Die Reihenfolge stellt keine Gewichtung dar, sondern den internen oder externen Bezug. Mit zunehmender Zahl steigt die Kundenorientierung und -beziehung.
Das Ten Types of Innovation Framework vereinfacht den Innovationsprozess und bietet einen methodischen Ansatz, um diesen einfacher, zuverlässiger, transparenter, weniger risikoreich und reproduzierbarer zu gestalten. Infolgedessen kann eine effektive Innovationsstrategie entwickelt und umgesetzt werden.
T wie Text Mining
Text Mining ist eine Sonderform des →Data Minings und wird zur Informationsgewinnung von unstrukturierten Textdaten eingesetzt. Mithilfe des Text Minings lassen sich Informationen aus Textdaten extrahieren. Dem Nutzer werden automatisch die Kernaussagen von großen Textmengen geliefert, ohne dass ein detailliertes Befassen mit den einzelnen Texten notwendig ist. Im Rahmen der Recherche können z. B. große Mengen von Fachartikeln mit dem Text Mining nach Informationen und Relevanz durchsucht werden.
T wie Time Blocking
Time Blocking ist eine Methode im Zeitmanagement, mit der die Arbeitswoche in kleine, überschaubare Zeitabschnitte aufgeschlüsselt wird. Es geht hierbei allerdings nicht nur um die „große“ Terminplanung von Meetings, Projektarbeit oder Dienstreisen, sondern vor allem um die „kleinen“ Tätigkeiten, die ebenfalls anfallen, Zeit benötigen und sehr oft nicht geplant werden, so dass sie meistens „geopfert“ werden. Hierzu gehören z. B. das Lesen und Beantworten von E-Mails, Pausenzeiten oder Sport und Hobbys. Gerade Letzteres hilft, um nach der Arbeit abzuschalten und die nötige Zeit zur Erholung zu finden. Time Blocking ist allerdings mehr. Bei dieser Methode werden ähnliche Aufgaben zusammengefasst und in Zeitblöcken konzentriert, in denen an diesen Aufgaben gearbeitet wird. So werden die Aufgaben effizient erledigt. Hinzu kommt die visuelle Einteilung bestimmter Zeitblöcke im Kalender, damit man in der Erledigung dieser Aufgaben nicht unterbrochen und/oder anderweitig verplant wird. erden dürfen. Neben einer höheren Effizienz werden durch immer wieder kehrende Zeitblöcke Automatismen im geschaffen. Dies vermeidet, dass man z. B. während eines Meetings E-Mails liest oder „nebenbei“ ein größeres Projekt mitbearbeitet wird. Mit der Time-Blocking-Methode werden die notwendigen Zeitfenster eingeplant, um jeder Aufgabe auch die hierfür notwendigen Ressourcen zu geben. Time Blocking ist mehr als nur die Zusammenfassung von Aufgaben und hat nichts mit Zeiterfassung oder Time Boxing zu tun.
Time Blocking ist besonders hilfreich bei einer Tendenz zum Multitasking oder wenn man sich auf eine bestimmte Aufgabe konzentrieren und Ablenkungen vermeiden möchte. Die Methode hat sich bewährt, wenn man die Kontrolle über seine eigene Zeit und Energie bei der Arbeit zurückerlangen möchte und wenn man einen Überblick über die eigenen Zeitressourcen gewinnen möchte, also z. B. was konkret die „Zeitfresser“ im Alltag sind. Außerdem ist Time Blocking eine Präventivmaßnahme, wenn man sich regelmäßig überlastet fühlt. Um Time Blocking anzuwenden, sollte jeder Zeitblock als eine Phase angesehen werden, in der man nicht abgelenkt wird und sich voll und ganz auf die jeweilige Arbeit konzentrieren kann. Diese Herangehensweise wird auch als Deep Work bezeichnet.
T wie Timeboxing
Timeboxing ist eine Methode im Zeitmanagement, die häufig im agilen Projektmanagement eingesetzt wird. Hierbei wird jeder Aufgabe eine maximale Zeit zugewiesen. Um den Effekt zu verstärken werden häufig Wecker oder Uhren mit Alarmfunktion eingesetzt, um allen Beteiligten zu signalisieren, dass die Zeit abgelaufen ist. Somit sollen z. B. ausufernde Diskussionen genauso vermieden werden wie z. B. das Abdriften von der eigentlichen Aufgabenstellung oder der Auseinandersetzung mit Details, bei denen häufig das Große und Ganze aus den Augen verloren geht. Timeboxing ist eine zielbasierte Methode im Zeitmanagement, mit der die Produktivität und Effizienz erhöht und Abläufe optimiert werden. Eine „Timebox“ ist ein Ziel, in dem eine spezifische Aufgabe innerhalb einer bestimmten Zeit zu erledigen ist. Neben Meetings und Workshops hilft Timeboxing auch bei Projekten. Timeboxing ist keine Methode, um Aufgaben schneller zu erledigen, sondern um sich innerhalb einer definierten Zeit nur auf diese eine Aufgabe zu konzentrieren und sich von allen unwichtigen Dingen zu lösen.
Beim Timeboxing wird eine harte oder weiche Version unterschieden. Eine harte Timebox endet, wenn die Zeit abgelaufen ist, egal, ob die Aufgabe erledigt wurde oder nicht. Harte Timeboxen sind insbesondere dann sinnvoll, wenn das Team zeitlich „diszipliniert“ werden muss und/oder eine zeitlich anspruchsvolle Agenda auf der Tagesordnung steht. Eine weiche Timebox schafft mehr Flexibilität und gibt lediglich einen Hinweis, dass die aktuelle Tätigkeit beendet und die nächste Aufgabe in Angriff genommen werden sollte. Weiche Timeboxen eignen sich für komplexe Arbeiten, bei denen vorher noch nicht bekannt ist, wie viel Zeit benötigt wird oder in Meetings, wenn man Diskussionen nicht abbrechen und dennoch den Zeitplan im Auge behalten möchte.
T wie Turing-Test
Der Turing-Test geht auf eine einfache Frage aus dem Jahr 1950 zurück. In seinem berühmten Artikel „Computing Machinery and Intelligence“ beschreibt Alan Turing ein Szenario und stellt die daraus resultierende Frage: „Mal angenommen, jemand behauptet, dass er einen Computer gebaut hätte, der die Intelligenz eines Menschen hätte. Wie kann diese Aussage überprüft werden? Der bekannte und naheliegende IQ-Test scheidet aus, da dieser lediglich den Grad der Intelligenz misst und hierbei eine bestimmte Intelligenz bereits voraussetzt. Bei Computern stellte sich die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann. Um diese Frage zu beantworten, entwickelte Turing den später nach ihm benannten Test. Er selbst nannte diesen Test ursprünglich „imitation game“ und skizzierte eher ein theoretisches Modell. Erst später, nachdem die →künstliche Intelligenz als Teilbereich der Informatik zu einem eigenständigen akademischen Fachgebiet geworden war, wurde diese genauer und konkreter ausformuliert und als Turing-Test auf der Dartmouth Conference im Jahr 1956 vorgestellt. Mit dieser Veranstaltung beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Das “Summer Research Project on Artificial Intelligence” war der Start des ersten intelligenten und funktionierenden KI-Programms namens „Logic Theorist“. Es bewies u. a., dass Computer nicht nur Zahlen, sondern auch Symbole verarbeiten können. Unter den Teilnehmern befanden sich u. a. John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon, Alan Newell sowie Herbert Simon. Gemeinsam teilten sie die Überzeugung, dass Denken auch außerhalb des menschlichen Gehirns stattfinden kann.
Turing war sich des Problems bei der Definition von menschlicher Intelligenz als Referenz zur künstlichen Intelligenz bewusst. Um philosophischen Diskussionen über die Intelligenz des Menschen aus dem Weg zu gehen, schlug Turing einen einfachen Test vor, der keine akademischen Grundsatzfragen auslöste. „Ein Computer“ sagte Turing „sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, soll die Unterhaltung“ so Turing „über eine Fernschreiberverbindung erfolgen.“ (Anm.: heute würde man Tastatur oder Terminal sagen). Damit wollte Turing eine Ablenkung durch Mimik, Gestik und Stimme ausschalten und sich in der Versuchsanordnung auf das reine Denken konzentrieren. Der Mensch führt in dem Test eine Unterhaltung mit zwei ihm unbekannten Gesprächspartnern durch – der eine ist ein Mensch, der andere eine Maschine. Kann der Mensch nach der intensiven Befragung nicht sagen, welcher von beiden Gesprächspartnern die Maschine oder der Mensch ist, hat die Maschine den Turing-Test bestanden und es wird unterstellt, dass die Maschine ein dem Menschen ebenbürtiges Denkvermögen aufweist.
Turing prognostizierte bereits Anfang der 1950-er Jahre, dass bis zum Jahr 2000 Computer so programmiert sein werden, dass ein durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ hat.
Kritiker werfen dem Turing Test vor, dass dieser nur die Funktionalität, aber nicht das Vorhandensein von Bewusstsein prüft und in erster Linie auf Täuschung und Manipulation aufsetzt und somit eher menschliche Leichtgläubigkeit als echte künstliche Intelligenz misst.
Seitdem gab es eine Reihe weiterer Test wie z. B. Winograd challenge oder Programme wie ELIZA oder Cleverbot, die aber den Turing-Test nicht bestanden haben. Ob der Chatbot Eugene Goostman im Jahr 2014 den Turing-Test bestand, gilt als umstritten.
Im Sommer 2017 haben Forscher der Universität von Chicago eine KI vorgestellt, die eigenständig Rezensionen verfassen kann. Diese maschinell erzeugten Rezensionen wurden zusammen mit von Menschen verfassten Rezensionen über 600 Versuchspersonen zur Beurteilung vorgelegt. Diese beurteilten die von der KI erstellten Rezensionen im Blindtest durchschnittlich ähnlich gut und nützlich wie die von Menschen verfassten Rezensionen. Infolgedessen gilt dieser Versuch als erster dieser Art, der den Turing-Test bestanden hat, da für Menschen nicht mehr erkennbar war, welche Rezensionen maschinell und welche vom Menschen erstellt wurden. Ebenfalls im Sommer 2017 stellten Forscher der Rutgers-Universität eine KI vor, die künstlerisch anmutende Bilder produziert. Die KI wurde mit vielen Gemälden berühmter Maler verschiedener Epochen trainiert. In einem Blindtest wurden die von der KI erstellten Bilder mit Bildern zeitgenössischer Künstler vermischt. Die Testpersonen sollten einschätzen, ob die Bilder von Menschen oder einem Computer erschaffen worden waren und beurteilten die Bilder der KI insgesamt besser, also durch Menschenhand erstellt als die von den Künstlern geschaffenen Gemälde. Auch dieser Turing-Test galt damit als bestanden.
Ein Jahr später stellte Google auf der Entwicklerkonferenz sein System „Duplex“ vor. Dabei führte eine KI ein Telefonat mit einem Friseursalon, Restaurant und weiteren Einrichtungen, um Termine zu vereinbaren. Duplex wurde so programmiert, dass u. a. Denkpausen, absichtliche Ungenauigkeiten und Laute wie „aha“ und „hmm“ etc. eingefügt wurden, wodurch die KI menschlich klingen soll. Die Angerufenen empfanden das Ergebnis u. a. als erschreckend überzeugend. Kritiker dieser Demonstrationen werfen allerdings ein, dass es sich um keinen echten Turing-Test handelt, da die Teilnehmer schon vorher wussten, auf welcher Seite des Gesprächs der Mensch und auf welcher die KI stand. Außerdem bestand das Gespräch nur aus einer simplen Terminvereinbarung, ohne zu prüfen, wie sich die KI verhalten hätte, wenn der Gegenüber das Gespräch in eine andere Richtung gelenkt hätte.
Dennoch war dieses Programm ein großer Durchbruch in der KI-Forschung und Wegbereiter für weitere Anwendungen wie z. B. das CAPTCHA-Verfahren (Completely Automated Public Turing test to tell Computers and Humans Apart) zur Abwehr von Spam oder das HIP-Verfahren (Human Interaction Proof). Weitere Anwendungen sind der Lovelace-Test, bei der eine KI Kreativität beweisen und originäre Leistungen erbringen muss oder der Metzinger-Test, bei der eine KI mit eigenen Argumenten in eine Diskussion um künstliches Bewusstsein eingreifen und überzeugend für ihre eigene Theorie des Bewusstseins argumentieren muss. Allerdings haben alle diese Entwicklungen eines gemeinsam: sie handeln weder intuitiv noch sind sie in der Lage, komplexe Fragestellungen zu lösen. Einige Programme zielen vor allem darauf ab, Nutzer intelligent in die Irre zu führen. Fragen, die nicht verstanden werden oder auf die sie keine Antwort parat haben, werden mit Gegenfragen und Ausweichmanövern erwidert. Je besser dies gelingt, umso mehr Menschen glauben mit einem menschlichen Gegenüber zu kommunizieren. Inwieweit das evtl. eine andere Form oder Ausprägung von künstlicher Intelligenz darstellt, bietet letztendlich Interpretationsspielraum. Eine definitive Aussage über die Intelligenz von Computern, so wie es Alan Turing vor über 70 Jahren formulierte, ist das deshalb noch nicht.
T wie TRIZ-Methode
TRIZ ist ein russisches Akronym für „теория решения изобретательских задач“, was sinngemäß übersetzt „Theorie des erfinderischen Problemlösens“ bedeutet. Die TRIZ-Methode ist ein Methodenbaukasten, bestehend aus unterschiedlichen Arbeitsweisen zur Entwicklung von kreativen Problemlösungen. Eingesetzt wird diese Methode insbesondere bei der Analyse und systematischen Erarbeitung von Lösungsansätzen technischer Probleme. Seinen Ursprung hat TRIZ in elektro-mechanischen, elektronischen, verfahrenstechnischen, fertigungstechnischen und Software-architektonischen Problemstellungen.
Die TRIZ-Methode wird in folgende Bestandteile gegliedert:
- Ausgangssituation systematisch analysieren
- Problemstellung strukturieren
- Feststellen der vorhandenen und fehlenden Ressourcen
- Konzeptentwicklung für die Ideenfindung
- Analogiebildung für kreative Problemlösung
Nach der TRIZ-Methode können innovative Problemlösungen nur dann entwickelt werden, wenn die Widersprüche auf technischer und physikalischer Ebene gelöst werden und darüber hinaus die Bildung von Kompromissen vermieden wird. Hierbei muss das Problem abstrakt gesehen und die Widersprüche entsprechend beschrieben werden. Die TRI-Methode umfasst ein System aus 39 technischen Parametern und 40 Wirkprinzipien. Die positiven sowie negativen Relationen der 39 technischen Parameter werden in einer so genannten Widerspruchsmatrix angeordnet und mithilfe der 40 Wirkungsprinzipien versucht, zu lösen. Im Ergebnis entsteht aus den nützlichen Funktionen (Vorteile) und den schädlichen Funktionen (Nachteile) ein Ursache-Wirkungs-Diagramm.
Die klassischen TRIZ-Methoden bestehen aus:
- Neun-Felder-Denken (System Operator)
- Zwerge-Modell
- MKZ-Operator
- Technischer Widerspruch
- Widerspruchsmatrix
- 40 erfinderische oder innovative Prinzipien
- physikalischer Widerspruch
- 4 Separationsprinzipien
- Stoff-Feld-Analyse
- 76 Standardlösungen
- Trends der Technik-Evolution
- ARIZ (Algorithmus des erfinderischen Problemlösens)
Die Weiterentwicklung des Methodenbaukastens wird auch als „Modernes TRIZ“ bezeichnet und umfasst zusätzlich:
- Funktionsanalyse
- Ursachenanalyse
- Trimmen
- Effekte-Datenbanken
- Feature Transfer
- Flussanalyse
- Erweiterte Trends der Technik-Evolution
TRIZ-Methode
TAM
T wie TAM
TAM ist ein Akronym für den englischen Begriff Total Addressable Market oder Total Available Market und beschreibt im weiteren Sinne das theoretisch mögliche Marktpotenzial, wenn es keinerlei Einschränkungen durch Markteintrittsbarrieren, Wettbewerb oder Ressourcen geben würde. TAM wird im Rahmen des →TAM-SAM-SOM-Modells vor allem durch Startups eingesetzt, um für mögliche Investoren den Gesamtmarkt zu definieren.
TAM-SAM-SOM-Modell
T wie TAM-SAM-SOM-Modell
Das TAM-SAM-SOM-Modell hat sich vor allem bei Startups etabliert und liefert eines der wichtigsten Bewertungskriterien für eine Geschäftsidee: die Marktgröße. Die drei Abkürzungen stehen für die TAM-, SAM- und SOM-Märkte und sind jeweils Akronyme. Die Abkürzung →TAM steht für Total Addressable Market oder Total Available Market und beschreibt das größtmögliche Marktpotenzial, ohne irgendwelche Limitierungen durch exogene Einflüsse oder interne Ressourcen zu berücksichtigen. Daher ignoriert TAM jeglichen Wettbewerb oder Markteintrittsbarrieren, geografische Entfernungen oder Sprachbarrieren. Und selbst mögliche Kapazitätsengpässe und/oder fehlende Kompetenzen und/oder Ressourcen werden erst einmal ausgeblendet. TAM-Märkte sind global und monopolistisch und daher gerade für Startups völlig unrealistisch und für Investoren uninteressant. Die Abkürzung →SAM steht für Serviceable Addressable Market oder Served Available Market und beschreibt den Markt, der mit dem aktuellen Geschäftsmodell grundsätzlich angesprochen werden kann. Das theoretische Marktpotenzial wird zum realistischen Marktpotenzial. Im Gegensatz zum TAM werden die Marktsegmente ausgeschlossen, die zunächst nicht bedient werden (können). Für Investoren ist der SAM-Markt interessant, da er aufzeigt, welches Potential die Geschäftsidee mittelfristig hat. Die Abkürzung SOM steht für Serviceable Obtainable Market oder Share of Market und beschreibt den Teil innerhalb des SAM-Marktes, der realistisch bedient werden kann. Er definiert das Marktvolumen für das eigene Geschäftsmodell und grenzt Zielgruppen, Absatzmärkte und das Portfolio ein. Somit zeigt SOM auf, welche Umsätze in der ersten Wachstumsphase des Startups erzielt werden können. SOM ist somit kurzfristig, SAM mittelfristig und TAM langfristig ausgelegt.
Das TAM-SAM-SOM-Modell ist in erster Linie ein strategisch-analytisches Planungstool und dient der Bestimmung von Absatzmärkten. In der praktischen Anwendung zeigt sich allerdings, dass diese Methode in erster Linie ein Kommunikationsinstrument ist und dazu dient, ein gemeinsames Verständnis über Zielmärkte zu schaffen und Planungsannahmen zu argumentieren.
Kritik am TAM-SAM-SOM-Modell: Bei der Anwendung dieser Methode werden häufig zwei wiederkehrende Fehler beobachtet. Der erste Fehler besteht darin, den SOM nur als kleinen Anteil des SAM oder den SAM nur als kleinen Anteil eines sehr großen TAM zu definieren, ohne eine seriöse Zielmarkteinschätzung abzugeben. Dieser wird aus dem Englischen übersetzt als so genannter „1%-aller-Chinesen-Fehler“ bezeichnet. Dieser beschreibt den idealisierten TAM z. B. in der Form: „Wenn wir nur 1% aller Chinesen dazu bekommen könnten, unser Produkt zu kaufen,…“ wissentlich, dass es nahezu unmöglich ist, 1% aller Chinesen mit einem Angebot zu erreichen. Der zweite Fehler besteht darin, dass jeder Absatzmarkt, der theoretisch möglich wäre, auch als Marktpotenzial angesetzt wird. Bei einer Weltbevölkerung von knapp 8 Milliarden Menschen wäre es illusorisch zu glauben, dass 4 Milliarden Männer oder 4 Milliarden Frauen für die jeweils in Frage kommenden Produkte oder Angebote erreichbar sind, auch wenn dies theoretisch möglich wäre. Daher sollte auch der TAM nur das größtmögliche Marktpotenzial beschreiben, dass mit den üblichen Ressourcen realistisch erreicht werden kann. Deshalb wird der TAM immer häufiger als potenziell verfügbarer Markt bezeichnet und der SAM als bedienbarer verfügbarer Markt.
Technologieführer
T wie Technologieführer
Technologieführer ist ein Begriff aus den innovativen Milieus. Zu ihnen zählen Unternehmen mit einem hohen Innovationserfolg sowie einer starken Technologie-, Wissenschafts-, Forschungs- und Entwicklungsorientierung, die sich u. a in hohen Patent-Aktivitäten widerspiegelt. Technologieführer zeichnet weiterhin aus, dass sie technologische Grenzen kontinuierlich verschieben und immer wieder neue Standards definieren. Sie sind die Spitze der deutschen Innovationslandschaft. Nur sechs Prozent der Unternehmen gehören zu diesem Milieu. Die meisten von ihnen kommen aus den Bereichen Chemie, Pharma, Kunststoff sowie aus der Metall- und Elektroindustrie.
→ innovative Milieus
Technologie-Lebensszyklus-Modell
T wie Technologie-Lebensszyklus-Modell
Um den Technologie-Lebenszyklus zu veranschaulichen, gibt es mehrere Modelle. Die bekanntesten sind die Modelle von Arthur D. Little sowie von Ford / Ryan. Das Technologie-Lebenszyklus-Modell von Arthur D. Little unterscheidet 4 typische Phasen, die eine Technologie durchläuft: Entstehung, Wachstum, Reife und Alterung. Ford / Ryan dagegen unterscheiden in ihrem Technologie-Lebenszyklus-Modell 6 Phasen: Entstehung der Technologie, Entwicklung zur Anwendungsreife, Erstanwendung der Technologie, Verbreitung und wachsende Technologieanwendung sowie Technologiereife und Technologierückgang.
Technologietyp
T wie Technologietyp
Unternehmen haben mehrere Optionen bei der Auswahl von Technologiefeldern und damit verbundenen Strategien. Verfügt ein Unternehmen oder ein Geschäftsfeld über eine starke Technologie sowie eine starke Marktposition, kann die Strategie der Technologieführerschaft verfolgt werden. Als Innovationsführer kann das Unternehmen Standards setzen und Trends und Entwicklungen beeinflussen. Es nutzt seinen →First Mover Advantage. Dem entsprechend wird eine hohe Priorität auf Innovationen im technologischen Bereich gelegt. Ist ein Unternehmen dagegen Technologieführer und verfügt nur über eine schwache oder mittlere Wettbewerbssituation, empfiehlt sich die Nischenstrategie an. Diese Unternehmen konzentrieren sich auf eine oder wenige Technologien in einem spezialisierten Marktsegment und streben kein breites Technologiespektrum an. Im umgekehrten Fall – ein Unternehmen besitzt eine starke Markt- und Wettbewerbsposition und dafür keine technologischen Stärken – kauft sich dieses Technologiekompetenzen ein.
Je nachdem, in welcher Lebenszyklusphase sich eine Technologie befindet, wird unterschieden in
- Schrittmachertechnologie,
- Schlüsseltechnologie und
- Basistechnologie.
Vollkommen neue Technologien mit einer großen Unsicherheit und hohem Risiko, allerdings auch großem Potenzial und disruptiver Wirkung, werden als Schrittmachertechnologien bezeichnet. Diesen haben noch keinen Einfluss auf die Wettbewerbsfähigkeit und befinden sich im Entwicklungsstadium.
Werden diese zwar immer noch als neu bezeichnet und bieten die Möglichkeit zur Differenzierung mit einem großen Weiterentwicklungspotenzial, werden aber schon von mehreren Unternehmen eingesetzt, spricht man von Schlüsseltechnologien. Diesen haben bereits einen deutlich größeren Einfluss auf die Wettbewerbsfähigkeit. Dieser Typ von Technologie ermöglicht eine Differenzierungsstrategie. Infolgedessen sollten Unternehmen einige der bereits definierten Schrittmachertechnologien durch Investition selbst zu Schlüsseltechnologien entwickeln. Diese spielt für die Wettbewerbsfähigkeit von Unternehmen eine bedeutende Rolle.
Eine ausgereifte und auf dem Markt etablierte Technologie nennt man dagegen Basistechnologie. Hierbei handelt es sich um ehemalige Schlüsseltechnologien, die allerdings aufgrund ihres Alters im Wettbewerb an Bedeutung verloren haben. Da alle Unternehmen im Wettbewerb diese Technologie beherrschen, eignen sie sich nicht zur Differenzierung, sind aber ein unverzichtbarer Bestandteil von Technologien. Bei einem Übergang von Schlüsseltechnologien zu Basistechnologien sollte die Investitionstätigkeit reduziert werden. In dieser Phase empfiehlt sich eine Abschöpfungs- bzw. Desinvestitionsstrategie. Dies darf nicht mit einer Exitstrategie verwechselt werden, da die Basistechnologie immer noch notwendig ist, um am Markt erfolgreich zu sein.
Basis- bzw. Schlüsseltechnologien, die in unterschiedlichen Branchen und bei unterschiedlichen Anwendungen eingesetzt werden und Effekte zur Rationalisierung oder Effizienzsteigerung hervorbringen (können), werden als Querschnittstechnologien bezeichnet.
→Technologielebenszyklus
Technology Readiness Level (TRL-Skala)
T wie Technology Readiness Level (TRL-Skala)
Der Technology Readiness Level (auch als TRL-Skala bezeichnet) bewertet auf einer Skala von 1 bis 9 den Entwicklungsstand oder Reifegrad von neuen Technologien:
- TRL 1: Beobachtung und Beschreibung des Funktionsprinzips (Zeitpunkt bis zur Marktreife liegt bei 8 bis 15 Jahren)
- TRL 2: Beschreibung des technologischen Konzepts sowie die Anwendung einer Technologie
- TRL 3: Experiment und Nachweis der Funktionstüchtigkeit einer Technologie (Zeitpunkt bis zur Marktreife liegt bei 5 bis 13 Jahren)
- TRL 4: Versuchsaufbau bzw. Technologievalidierung im Labor
- TRL 5: Versuchsaufbau bzw. Technologievalidierung unter Einsatzbedingungen
- TRL 6: Demonstration des Prototyps unter Einsatzbedingungen
- TRL 7: Prototyp im Einsatz (Zeitpunkt bis zur Marktreife liegt bei 1 bis 5 Jahren)
- TRL 8: Qualifiziertes System mit Nachweis der Funktionstüchtigkeit im Einsatzbereich
- TRL 9: Qualifiziertes System mit Nachweis des erfolgreichen Einsatzes
Im europäischen Forschungskontext wird das Technology Readiness Level zur systematischen Bewertung von Forschungsprojekten sowie allgemein von Zukunftstechnologien verwendet. Eine systematische Auseinandersetzung mit den TRLs ist notwendig, damit sich eine Technologie von der Konzeption über die Forschung und Entwicklung bis hin zur kommerziellen Vermarktung entwickeln kann. Universitäten und Hochschulen konzentrieren sich im Rahmen von staatlich geförderten Projekten in der Regel auf die TRLs 1 bis 4, während privatwirtschaftliche Unternehmen eher auf die TRLs 7 bis 9 konzentrieren.
TRL 1 wird als Grundlagenforschung bezeichnet, während TRL 2 bis 4 die industrielle oder technologische Forschung beschreibt. TRL 5 bis 8 steht für die experimentelle Entwicklung (Produktdemonstration) und TRL 9 für die Fertigung unter Wettbewerbsbedingungen. Die TRLs 4 bis 7 werden häufig mit dem →„Valley of Death“ in Verbindung gebracht. Die Bezeichnung „Tal des Todes“ steht symbolisch für das Scheitern vieler Forschungs- und Innovationsprojekte, da in dieser Phase oftmals die öffentlichen Förderungen auslaufen und privatwirtschaftliche Unternehmen noch nicht bereit sind, die notwendigen Investitionen bis zur Marktreife aufzubringen. Infolgedessen scheitert die Entwicklung von vielversprechenden Technologien noch vor dem Einsatz.
Ten Types of Innovation
T wie Ten Types of Innovation
In der Vergangenheit definierten Unternehmen Innovationen hauptsächlich mit der Entwicklung neuer Produkte. Dies ist jedoch nur eine Art von Innovationen. Um die Bandbreite verschiedener Innovationsmöglichkeiten aufzuzeigen, entwickelte das Doblin Team (Deloitte Business Consulting LLP) Ende der 1990-er Jahre das Ten Types of Innovation Framework. Es stellt verschiedene Möglichkeiten dar, um erfolgreiche Innovationen nachhaltig zu entwickeln. Das Framework dient als Werkzeug für die Analyse des Markt- und Wettbewerbsumfeldes sowie zur Diagnose der eigenen Unternehmensperformance. Es identifiziert Nischen sowie Chancen und Potenziale und unterstützt Unternehmen bei der Bewertung von Innovationsprojekten. Hierbei differenziert das Framework drei Hauptkategorien:
- Configuration (Konfiguration): setzt sich mit allen internen Abläufen und Geschäftsprozessen eines Unternehmens auseinander und identifiziert das Geschäfts-, Markt- und Einnahmenmodell, Strukturen und Prozesse sowie Ressourcen
- Offerings (Angebot): konzentriert sich auf die Kernkompetenz eines Unternehmens und das Leistungsversprechen von Produkten und Dienstleistungen, idealerweise mit Differenzierungsmerkmalen bis hin zu Alleinstellungsmerkmalen (USP).
- Experience (Erfahrung): identifiziert die Kundenbeziehungen und kundenorientierten Angebote und Services sowie die Absatzkanäle.
Die Analyse aller großen Innovationen in den letzten Jahrzehnten hat gezeigt, dass diese immer aus einer Kombination von zehn typischen Disziplinen bestehen, welche diesen drei Kategorien zugeordnet werden können. Die 10 Typen heißen:
- Profit Model
- Network
- Structure
- Process
- Product
- Product System
- Service
- Channel
- Brand
- Customer Engagement
Die „Ten Types“ haben keine Hierarchie oder Reihenfolge und sind in dem Framework in drei farbige Kategorien unterteilt. Typen 1 bis 4 sind blau unterlegt und der Kategorie 1 „Konfiguration“ zugeordnet. Typen 5 und 6 sind orange unterlegt und bilden Kategorie 2 „Angebot“. Die Typen 7 bis 10 sind rot unterlegt und stehen für Kategorie 3 „Experience“. Die Reihenfolge stellt keine Gewichtung dar, sondern den internen oder externen Bezug. Mit zunehmender Zahl steigt die Kundenorientierung und -beziehung.
Das Ten Types of Innovation Framework vereinfacht den Innovationsprozess und bietet einen methodischen Ansatz, um diesen einfacher, zuverlässiger, transparenter, weniger risikoreich und reproduzierbarer zu gestalten. Infolgedessen kann eine effektive Innovationsstrategie entwickelt und umgesetzt werden.
Text Mining
T wie Text Mining
Text Mining ist eine Sonderform des →Data Minings und wird zur Informationsgewinnung von unstrukturierten Textdaten eingesetzt. Mithilfe des Text Minings lassen sich Informationen aus Textdaten extrahieren. Dem Nutzer werden automatisch die Kernaussagen von großen Textmengen geliefert, ohne dass ein detailliertes Befassen mit den einzelnen Texten notwendig ist. Im Rahmen der Recherche können z. B. große Mengen von Fachartikeln mit dem Text Mining nach Informationen und Relevanz durchsucht werden.
Time Blocking
T wie Time Blocking
Time Blocking ist eine Methode im Zeitmanagement, mit der die Arbeitswoche in kleine, überschaubare Zeitabschnitte aufgeschlüsselt wird. Es geht hierbei allerdings nicht nur um die „große“ Terminplanung von Meetings, Projektarbeit oder Dienstreisen, sondern vor allem um die „kleinen“ Tätigkeiten, die ebenfalls anfallen, Zeit benötigen und sehr oft nicht geplant werden, so dass sie meistens „geopfert“ werden. Hierzu gehören z. B. das Lesen und Beantworten von E-Mails, Pausenzeiten oder Sport und Hobbys. Gerade Letzteres hilft, um nach der Arbeit abzuschalten und die nötige Zeit zur Erholung zu finden. Time Blocking ist allerdings mehr. Bei dieser Methode werden ähnliche Aufgaben zusammengefasst und in Zeitblöcken konzentriert, in denen an diesen Aufgaben gearbeitet wird. So werden die Aufgaben effizient erledigt. Hinzu kommt die visuelle Einteilung bestimmter Zeitblöcke im Kalender, damit man in der Erledigung dieser Aufgaben nicht unterbrochen und/oder anderweitig verplant wird. erden dürfen. Neben einer höheren Effizienz werden durch immer wieder kehrende Zeitblöcke Automatismen im geschaffen. Dies vermeidet, dass man z. B. während eines Meetings E-Mails liest oder „nebenbei“ ein größeres Projekt mitbearbeitet wird. Mit der Time-Blocking-Methode werden die notwendigen Zeitfenster eingeplant, um jeder Aufgabe auch die hierfür notwendigen Ressourcen zu geben. Time Blocking ist mehr als nur die Zusammenfassung von Aufgaben und hat nichts mit Zeiterfassung oder Time Boxing zu tun.
Time Blocking ist besonders hilfreich bei einer Tendenz zum Multitasking oder wenn man sich auf eine bestimmte Aufgabe konzentrieren und Ablenkungen vermeiden möchte. Die Methode hat sich bewährt, wenn man die Kontrolle über seine eigene Zeit und Energie bei der Arbeit zurückerlangen möchte und wenn man einen Überblick über die eigenen Zeitressourcen gewinnen möchte, also z. B. was konkret die „Zeitfresser“ im Alltag sind. Außerdem ist Time Blocking eine Präventivmaßnahme, wenn man sich regelmäßig überlastet fühlt. Um Time Blocking anzuwenden, sollte jeder Zeitblock als eine Phase angesehen werden, in der man nicht abgelenkt wird und sich voll und ganz auf die jeweilige Arbeit konzentrieren kann. Diese Herangehensweise wird auch als Deep Work bezeichnet.
Timeboxing
T wie Timeboxing
Timeboxing ist eine Methode im Zeitmanagement, die häufig im agilen Projektmanagement eingesetzt wird. Hierbei wird jeder Aufgabe eine maximale Zeit zugewiesen. Um den Effekt zu verstärken werden häufig Wecker oder Uhren mit Alarmfunktion eingesetzt, um allen Beteiligten zu signalisieren, dass die Zeit abgelaufen ist. Somit sollen z. B. ausufernde Diskussionen genauso vermieden werden wie z. B. das Abdriften von der eigentlichen Aufgabenstellung oder der Auseinandersetzung mit Details, bei denen häufig das Große und Ganze aus den Augen verloren geht. Timeboxing ist eine zielbasierte Methode im Zeitmanagement, mit der die Produktivität und Effizienz erhöht und Abläufe optimiert werden. Eine „Timebox“ ist ein Ziel, in dem eine spezifische Aufgabe innerhalb einer bestimmten Zeit zu erledigen ist. Neben Meetings und Workshops hilft Timeboxing auch bei Projekten. Timeboxing ist keine Methode, um Aufgaben schneller zu erledigen, sondern um sich innerhalb einer definierten Zeit nur auf diese eine Aufgabe zu konzentrieren und sich von allen unwichtigen Dingen zu lösen.
Beim Timeboxing wird eine harte oder weiche Version unterschieden. Eine harte Timebox endet, wenn die Zeit abgelaufen ist, egal, ob die Aufgabe erledigt wurde oder nicht. Harte Timeboxen sind insbesondere dann sinnvoll, wenn das Team zeitlich „diszipliniert“ werden muss und/oder eine zeitlich anspruchsvolle Agenda auf der Tagesordnung steht. Eine weiche Timebox schafft mehr Flexibilität und gibt lediglich einen Hinweis, dass die aktuelle Tätigkeit beendet und die nächste Aufgabe in Angriff genommen werden sollte. Weiche Timeboxen eignen sich für komplexe Arbeiten, bei denen vorher noch nicht bekannt ist, wie viel Zeit benötigt wird oder in Meetings, wenn man Diskussionen nicht abbrechen und dennoch den Zeitplan im Auge behalten möchte.
Turing-Test
T wie Turing-Test
Der Turing-Test geht auf eine einfache Frage aus dem Jahr 1950 zurück. In seinem berühmten Artikel „Computing Machinery and Intelligence“ beschreibt Alan Turing ein Szenario und stellt die daraus resultierende Frage: „Mal angenommen, jemand behauptet, dass er einen Computer gebaut hätte, der die Intelligenz eines Menschen hätte. Wie kann diese Aussage überprüft werden? Der bekannte und naheliegende IQ-Test scheidet aus, da dieser lediglich den Grad der Intelligenz misst und hierbei eine bestimmte Intelligenz bereits voraussetzt. Bei Computern stellte sich die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann. Um diese Frage zu beantworten, entwickelte Turing den später nach ihm benannten Test. Er selbst nannte diesen Test ursprünglich „imitation game“ und skizzierte eher ein theoretisches Modell. Erst später, nachdem die →künstliche Intelligenz als Teilbereich der Informatik zu einem eigenständigen akademischen Fachgebiet geworden war, wurde diese genauer und konkreter ausformuliert und als Turing-Test auf der Dartmouth Conference im Jahr 1956 vorgestellt. Mit dieser Veranstaltung beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Das “Summer Research Project on Artificial Intelligence” war der Start des ersten intelligenten und funktionierenden KI-Programms namens „Logic Theorist“. Es bewies u. a., dass Computer nicht nur Zahlen, sondern auch Symbole verarbeiten können. Unter den Teilnehmern befanden sich u. a. John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon, Alan Newell sowie Herbert Simon. Gemeinsam teilten sie die Überzeugung, dass Denken auch außerhalb des menschlichen Gehirns stattfinden kann.
Turing war sich des Problems bei der Definition von menschlicher Intelligenz als Referenz zur künstlichen Intelligenz bewusst. Um philosophischen Diskussionen über die Intelligenz des Menschen aus dem Weg zu gehen, schlug Turing einen einfachen Test vor, der keine akademischen Grundsatzfragen auslöste. „Ein Computer“ sagte Turing „sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, soll die Unterhaltung“ so Turing „über eine Fernschreiberverbindung erfolgen.“ (Anm.: heute würde man Tastatur oder Terminal sagen). Damit wollte Turing eine Ablenkung durch Mimik, Gestik und Stimme ausschalten und sich in der Versuchsanordnung auf das reine Denken konzentrieren. Der Mensch führt in dem Test eine Unterhaltung mit zwei ihm unbekannten Gesprächspartnern durch – der eine ist ein Mensch, der andere eine Maschine. Kann der Mensch nach der intensiven Befragung nicht sagen, welcher von beiden Gesprächspartnern die Maschine oder der Mensch ist, hat die Maschine den Turing-Test bestanden und es wird unterstellt, dass die Maschine ein dem Menschen ebenbürtiges Denkvermögen aufweist.
Turing prognostizierte bereits Anfang der 1950-er Jahre, dass bis zum Jahr 2000 Computer so programmiert sein werden, dass ein durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ hat.
Kritiker werfen dem Turing Test vor, dass dieser nur die Funktionalität, aber nicht das Vorhandensein von Bewusstsein prüft und in erster Linie auf Täuschung und Manipulation aufsetzt und somit eher menschliche Leichtgläubigkeit als echte künstliche Intelligenz misst.
Seitdem gab es eine Reihe weiterer Test wie z. B. Winograd challenge oder Programme wie ELIZA oder Cleverbot, die aber den Turing-Test nicht bestanden haben. Ob der Chatbot Eugene Goostman im Jahr 2014 den Turing-Test bestand, gilt als umstritten.
Im Sommer 2017 haben Forscher der Universität von Chicago eine KI vorgestellt, die eigenständig Rezensionen verfassen kann. Diese maschinell erzeugten Rezensionen wurden zusammen mit von Menschen verfassten Rezensionen über 600 Versuchspersonen zur Beurteilung vorgelegt. Diese beurteilten die von der KI erstellten Rezensionen im Blindtest durchschnittlich ähnlich gut und nützlich wie die von Menschen verfassten Rezensionen. Infolgedessen gilt dieser Versuch als erster dieser Art, der den Turing-Test bestanden hat, da für Menschen nicht mehr erkennbar war, welche Rezensionen maschinell und welche vom Menschen erstellt wurden. Ebenfalls im Sommer 2017 stellten Forscher der Rutgers-Universität eine KI vor, die künstlerisch anmutende Bilder produziert. Die KI wurde mit vielen Gemälden berühmter Maler verschiedener Epochen trainiert. In einem Blindtest wurden die von der KI erstellten Bilder mit Bildern zeitgenössischer Künstler vermischt. Die Testpersonen sollten einschätzen, ob die Bilder von Menschen oder einem Computer erschaffen worden waren und beurteilten die Bilder der KI insgesamt besser, also durch Menschenhand erstellt als die von den Künstlern geschaffenen Gemälde. Auch dieser Turing-Test galt damit als bestanden.
Ein Jahr später stellte Google auf der Entwicklerkonferenz sein System „Duplex“ vor. Dabei führte eine KI ein Telefonat mit einem Friseursalon, Restaurant und weiteren Einrichtungen, um Termine zu vereinbaren. Duplex wurde so programmiert, dass u. a. Denkpausen, absichtliche Ungenauigkeiten und Laute wie „aha“ und „hmm“ etc. eingefügt wurden, wodurch die KI menschlich klingen soll. Die Angerufenen empfanden das Ergebnis u. a. als erschreckend überzeugend. Kritiker dieser Demonstrationen werfen allerdings ein, dass es sich um keinen echten Turing-Test handelt, da die Teilnehmer schon vorher wussten, auf welcher Seite des Gesprächs der Mensch und auf welcher die KI stand. Außerdem bestand das Gespräch nur aus einer simplen Terminvereinbarung, ohne zu prüfen, wie sich die KI verhalten hätte, wenn der Gegenüber das Gespräch in eine andere Richtung gelenkt hätte.
Dennoch war dieses Programm ein großer Durchbruch in der KI-Forschung und Wegbereiter für weitere Anwendungen wie z. B. das CAPTCHA-Verfahren (Completely Automated Public Turing test to tell Computers and Humans Apart) zur Abwehr von Spam oder das HIP-Verfahren (Human Interaction Proof). Weitere Anwendungen sind der Lovelace-Test, bei der eine KI Kreativität beweisen und originäre Leistungen erbringen muss oder der Metzinger-Test, bei der eine KI mit eigenen Argumenten in eine Diskussion um künstliches Bewusstsein eingreifen und überzeugend für ihre eigene Theorie des Bewusstseins argumentieren muss. Allerdings haben alle diese Entwicklungen eines gemeinsam: sie handeln weder intuitiv noch sind sie in der Lage, komplexe Fragestellungen zu lösen. Einige Programme zielen vor allem darauf ab, Nutzer intelligent in die Irre zu führen. Fragen, die nicht verstanden werden oder auf die sie keine Antwort parat haben, werden mit Gegenfragen und Ausweichmanövern erwidert. Je besser dies gelingt, umso mehr Menschen glauben mit einem menschlichen Gegenüber zu kommunizieren. Inwieweit das evtl. eine andere Form oder Ausprägung von künstlicher Intelligenz darstellt, bietet letztendlich Interpretationsspielraum. Eine definitive Aussage über die Intelligenz von Computern, so wie es Alan Turing vor über 70 Jahren formulierte, ist das deshalb noch nicht.
TRIZ-Methode
T wie TRIZ-Methode
TRIZ ist ein russisches Akronym für „теория решения изобретательских задач“, was sinngemäß übersetzt „Theorie des erfinderischen Problemlösens“ bedeutet. Die TRIZ-Methode ist ein Methodenbaukasten, bestehend aus unterschiedlichen Arbeitsweisen zur Entwicklung von kreativen Problemlösungen. Eingesetzt wird diese Methode insbesondere bei der Analyse und systematischen Erarbeitung von Lösungsansätzen technischer Probleme. Seinen Ursprung hat TRIZ in elektro-mechanischen, elektronischen, verfahrenstechnischen, fertigungstechnischen und Software-architektonischen Problemstellungen.
Die TRIZ-Methode wird in folgende Bestandteile gegliedert:
- Ausgangssituation systematisch analysieren
- Problemstellung strukturieren
- Feststellen der vorhandenen und fehlenden Ressourcen
- Konzeptentwicklung für die Ideenfindung
- Analogiebildung für kreative Problemlösung
Nach der TRIZ-Methode können innovative Problemlösungen nur dann entwickelt werden, wenn die Widersprüche auf technischer und physikalischer Ebene gelöst werden und darüber hinaus die Bildung von Kompromissen vermieden wird. Hierbei muss das Problem abstrakt gesehen und die Widersprüche entsprechend beschrieben werden. Die TRI-Methode umfasst ein System aus 39 technischen Parametern und 40 Wirkprinzipien. Die positiven sowie negativen Relationen der 39 technischen Parameter werden in einer so genannten Widerspruchsmatrix angeordnet und mithilfe der 40 Wirkungsprinzipien versucht, zu lösen. Im Ergebnis entsteht aus den nützlichen Funktionen (Vorteile) und den schädlichen Funktionen (Nachteile) ein Ursache-Wirkungs-Diagramm.
Die klassischen TRIZ-Methoden bestehen aus:
- Neun-Felder-Denken (System Operator)
- Zwerge-Modell
- MKZ-Operator
- Technischer Widerspruch
- Widerspruchsmatrix
- 40 erfinderische oder innovative Prinzipien
- physikalischer Widerspruch
- 4 Separationsprinzipien
- Stoff-Feld-Analyse
- 76 Standardlösungen
- Trends der Technik-Evolution
- ARIZ (Algorithmus des erfinderischen Problemlösens)
Die Weiterentwicklung des Methodenbaukastens wird auch als „Modernes TRIZ“ bezeichnet und umfasst zusätzlich:
- Funktionsanalyse
- Ursachenanalyse
- Trimmen
- Effekte-Datenbanken
- Feature Transfer
- Flussanalyse
- Erweiterte Trends der Technik-Evolution
TRIZ-Methode
U wie Unternehmen ohne Innovationsfokus
U wie Unternehmen ohne Innovationsfokus
Unternehmen ohne Fokus auf Innovationen ist ein Begriff aus den innovativen Milieus. Diese Unternehmen betreiben mehr oder weniger gar keine Innovationen und befinden sich häufig in Branchen, in denen Innovationen nicht wettbewerbsrelevant sind oder nicht als diese wahrgenommen werden. Infolgedessen stehen zwei Rahmenbedingungen in unmittelbarem Zusammenhang: einerseits fehlt die Nachfrage seitens Kunden, so dass die Anreize für Innovationen fehlen und andererseits an der Kompetenz, diese umzusetzen, wenn es sie dennoch geben sollte. Somit entsteht ein negativer Kreislauf aus „nicht wollen“ und „nicht können“, der sich als Branchen-DNA festgesetzt hat. Typische Branchen sind die Logistik und der Großhandel. Etwas über zehn Prozent der Unternehmen können dem Milieu ohne Innovationsfokus zugeordnet werden.
→ innovative Milieus
U wie Unternehmenskultur
Die Unternehmenskultur ist Herz, Verstand und Seele einer Organisation. Sie ist verantwortlich dafür, wie Menschen in einer Organisation wahrnehmen, denken, fühlen und handeln. Sie bestimmt, wie eine Organisation „tickt“ und ist das Ergebnis eines kollektiven Lernprozesses, bei dem sich durch bewusste und unbewusste Anpassung an das Umfeld gemeinsame Werte und Verhaltensmuster herausbilden. Infolgedessen ist die Kultur einer Organisation so einzigartig wie ein Fingerabdruck. Die Aufgabe der Führungskräfte besteht darin, diese kulturellen Merkmale und Rahmenbedingungen so zu entwickeln und die richtigen Verhaltensweisen so zu gestalten, dass sie die strategischen Unternehmensziele unterstützen.
In Zeiten starker Veränderungen und Unsicherheiten bescheinigen Zweidrittel der Führungskräfte mittlerweile der Unternehmenskultur eine ähnlich hohe Bedeutung wie die Unternehmensstrategie, dem Geschäftsmodell oder den Unternehmensprozessen. Sie sind überzeugt davon, dass die Unternehmenskultur für das Erreichen von Zielen und als Motivation für Leistung wichtiger geworden ist, als materielle Anreize, Anerkennung oder kennziffergetriebene Prozesse. In mehreren Studien wurde der Zusammenhang zwischen einer starken Unternehmenskultur und dem Unternehmenserfolg nachgewiesen, wobei sich dieser nicht nur auf das Geschäftsmodell bezieht, sondern auch auf Mitarbeiter- und/oder Kundenzufriedenheit, Identität und Loyalität der Mitarbeiter, die Transformation nach innen und außen oder im War of Talents u. a. Des Weiteren entwickelt sich die Unternehmenskultur immer mehr zu einem Wettbewerbsvorteil – und dies kulturübergreifend. Sie ist essenziell für die →Innovationskultur eines Unternehmens und das Fundament für →New Work.
Die Unternehmenskultur zeigt sich in drei Dimensionen: den Artefakten einer Organisation wie z. B. sichtbare Strukturen und Prozesse, den Unternehmenswerten als sichtbarer Ausdruck des Selbstverständnisses wie z. B. dem Leitbild sowie Verhaltensmuster, die sich in selbstverständlichen Anschauungen, Wahrnehmungen und Abläufen wiederspiegeln.
Gradmesser für die Unternehmenskultur ist die kulturelle Kohärenz (oder Inkohärenz) zwischen den Vorgaben der Führungskräfte sowie der authentischen Vorbildfunktion und der Wahrnehmung der Mitarbeiter, wie diese im Tagesgeschäft und vor allem in Stresssituationen gelebt werden und hier insbesondere, wie mit Abweichungen umgegangen wird. In den meisten Unternehmen haben die Mitarbeiter das Gefühl, dass sie nicht wahrgenommen werden, ihre Leistung nicht gesehen und anerkannt wird, ihre Arbeitsplätze nicht integrativ genug sind und vor allem, dass sie nicht authentisch sein können, wenn sie sich dadurch keine Nachteile verschaffen wollen. Dies kann zu einem Code-Switching führen, bei dem Mitarbeiter ihr Verhalten bis hin zu ihrem Sprachmuster anpassen, um fairer behandelt oder bevorteilt zu werden. In diesen Fällen entwickelt sich eine parallele Unternehmenskultur, die zum Verlust von Identität und Fachkräften sowie zur inneren Kündigung bei den verbleibenden Mitarbeitern führt. Um dem vorzubeugen, bietet sich ein gezieltes Kulturmanagement an. Dieses beginnt mit einer Bestandsaufnahme und der →Unternehmenskulturanalyse.
Terrence Deal und Allen Kennedy unterschieden Anfang der 1980-er Jahre die Unternehmenskultur in vier Organisationstypologien. Hierbei differenzieren sie zwei Hauptmerkmale: die Höhe der Risikobereitschaft und die Geschwindigkeit der Feedback-Kultur der jeweiligen Organisation. Infolgedessen entstand eine Matrix, bestehend aus vier Quadranten: einer hierarchischen Prozess- und Verfahrenskultur, einer teamorientierten Brot- und Spiele-Kultur, einer analytischen Projektkultur und einer risikoorientierten (alles oder nichts) Machokultur. Charles Handy dagegen unterteilte Ende der 1980-er Jahre die Unternehmenskultur in Power (Macht), Task Culture (Aufgabenkultur), Role Culture (Personenkultur) und Role Culture (Rollenkultur).
Die Unternehmenskultur unterliegt einer starken Veränderung, einer grundlegenden Transformation und komplett neuen Ausrichtung mit tiefgreifenden Konsequenzen in allen Unternehmensbereichen. Folgende Merkmale identifizieren diesen Prozess: der Wandel von einer aufgaben- und prozessorientierten zu einer team- und ergebnisorientierten Arbeitsweise, von einer geschlossenen Organisation in stabilen Silos mit klaren Zuständigkeiten und Kompetenzen zu einer offenen Organisation mit agilen und wechselnden Teams und interdisziplinären Projekten, von normativen Vorgaben mit statischen Kennziffern und einem regulativen Controlling hin zu einer pragmatischen und iterativen Vorgehensweise und einem situativen Reporting, von einer Entweder-oder-Entscheidung zu einem Sowohl-als-auch-Kompromiss, von konstanten Zielen mit zentraler Steuerung zu sich situativ verändernden Zielen mit dezentraler Steuerung sowie einem Festhalten am Bewährten und nur so viel Veränderung wie unbedingt nötig zu einer hohen Veränderungsrate und der permanenten Suche nach Optimierung, Automatisierung und Disruption.
U wie Upskilling
Im Zusammenhang mit der Digitalisierung taucht immer öfter der Begriff „Upskilling“ auf. Dieser beschreibt die Weiterentwicklung der Hard- und Softskills sowie die Entwicklung digitaler Fähigkeiten, um mit der rasanten Entwicklung mithalten zu können. Das Recruiting qualifizierter Mitarbeiter gestaltet sich zunehmend schwierig und neue Mitarbeiter einzustellen und einzuarbeiten ist zeitaufwändig und ist mit Kosten verbunden. Deshalb erkennen immer mehr Unternehmen den Wert, bestehende Mitarbeiter durch Upskilling auf alle Bereiche der Digitalisierung vorzubereiten und aktiv mit einzubinden und somit so genannten „Skill Gaps“ (Wissenslücken) vorzubeugen und zu schließen. Obwohl der Begriff Upskilling häufig im Zusammenhang mit digitalen und technologischen Weiterbildungen verwendet wird, können die Maßnahmen alle Bereiche und Themen umfassen. Somit wird der Begriff auch für Soft Skills wie z. B. Persönlichkeitsentwicklung oder Konfliktmanagement sowie Fähigkeiten wie Kreativität, Leadership, Kommunikation oder Anpassungsfähigkeit verwendet. Upskilling hat auch eine psychologische Wirkung, da sich Mitarbeiter wertgeschätzt fühlen, wenn ihre Stärken gefördert werden und in den Mittelpunkt rücken. Infolgedessen steigt die Motivation und Identität mit dem Unternehmen mit positiven Auswirkungen auf die Unternehmenskultur und das Firmenimage.
U wie UX-/UI-Design
Die Begriffe UX für User Experience und UI für User Interface überschneiden sich oft, wenn von UX-/UI-Design die Rede ist. Auch wenn beide Begriffe eng miteinander verflochten sind, beschreiben sie jeweils andere Aufgaben, Kompetenzen und Herangehensweisen. Das User Experience Design fokussiert sich auf die Analyse und Identifizierung der Zielgruppen und ihres individuellen Nutzerverhaltens (Buyer Personas) sowie der Entwicklung der Informationsarchitektur und der Wireframes. In dieser Phase wird der spätere Workflow entwickelt, der aus Kundensicht so intuitiv, sinnvoll und anwenderfreundlich wie möglich sein soll. An diesem Prozess sind Benchmarking, Nutzeranalyse, Research, Erstellung von Personas, Entwicklung der Prototypen, Testen, Branding, Design, Usability beteiligt. Die Herausforderung besteht darin, eine gute User Experience für möglichst viele Zielgruppen und möglichst alle Kontexte zu schaffen und sich hierbei an der Customer Journey zu orientieren. User Experience Design setzt sich mit den Eindrücken, Gefühlen und Emotionen der User auseinander, wenn sie mit einem bestimmten Produkt interagiert. Dieses sollte vor allem einfach, unkompliziert und reibungslos in der Anwendung sein (Usability).
Das User Interface Design visualisiert die Erkenntnisse und Ergebnisse aus dem UX-Design in visuelle Elemente und Interaktionen. Somit setzt sich UI-Design nicht mit dem gesamten Produktdesign auseinander, sondern nur mit einem Aspekt: der Ästhetik. User Interface ist die Verbindung zwischen Nutzer und Produkt, also die Schnittstelle (Touchpoints), an der beide interagieren. Farben, Fonts, Menüleisten, Buttons, Icons, Galerien, Infokästen und dgl. gehören alle zum User-Interface-Design. Es ist verantwortlich für das Aussehen und die Haptik des Produkts, indem es die in der UX-Design-Phase entwickelten Wireframes und Prototypen in eine ansprechende Gestaltung bringt, die Interaktion umsetzt oder für verschiedene Bildschirmgrößen und Geräte optimiert. Damit UI-Designer ihre “Mission” erfüllen können, müssen sie einerseits neueste Designtrends umsetzen und andererseits an der Markenidentität festhalten, ohne die Benutzerfreundlichkeit aufzugeben. Diesen Dreiklang in Einklang zu bringen, ist die Aufgabe des User Interface Design.
Während sich das User Interface-Design auf den Look fokussiert und für den ersten Eindruck des Users verantwortlich ist, konzentriert sich das User Experience-Design auf das Feeling sowie Prozesse und Aktionen, mit der die Nutzung ausgelöst wird.
Unternehmen ohne Innovationsfokus
U wie Unternehmen ohne Innovationsfokus
Unternehmen ohne Fokus auf Innovationen ist ein Begriff aus den innovativen Milieus. Diese Unternehmen betreiben mehr oder weniger gar keine Innovationen und befinden sich häufig in Branchen, in denen Innovationen nicht wettbewerbsrelevant sind oder nicht als diese wahrgenommen werden. Infolgedessen stehen zwei Rahmenbedingungen in unmittelbarem Zusammenhang: einerseits fehlt die Nachfrage seitens Kunden, so dass die Anreize für Innovationen fehlen und andererseits an der Kompetenz, diese umzusetzen, wenn es sie dennoch geben sollte. Somit entsteht ein negativer Kreislauf aus „nicht wollen“ und „nicht können“, der sich als Branchen-DNA festgesetzt hat. Typische Branchen sind die Logistik und der Großhandel. Etwas über zehn Prozent der Unternehmen können dem Milieu ohne Innovationsfokus zugeordnet werden.
→ innovative Milieus
Unternehmenskultur
U wie Unternehmenskultur
Die Unternehmenskultur ist Herz, Verstand und Seele einer Organisation. Sie ist verantwortlich dafür, wie Menschen in einer Organisation wahrnehmen, denken, fühlen und handeln. Sie bestimmt, wie eine Organisation „tickt“ und ist das Ergebnis eines kollektiven Lernprozesses, bei dem sich durch bewusste und unbewusste Anpassung an das Umfeld gemeinsame Werte und Verhaltensmuster herausbilden. Infolgedessen ist die Kultur einer Organisation so einzigartig wie ein Fingerabdruck. Die Aufgabe der Führungskräfte besteht darin, diese kulturellen Merkmale und Rahmenbedingungen so zu entwickeln und die richtigen Verhaltensweisen so zu gestalten, dass sie die strategischen Unternehmensziele unterstützen.
In Zeiten starker Veränderungen und Unsicherheiten bescheinigen Zweidrittel der Führungskräfte mittlerweile der Unternehmenskultur eine ähnlich hohe Bedeutung wie die Unternehmensstrategie, dem Geschäftsmodell oder den Unternehmensprozessen. Sie sind überzeugt davon, dass die Unternehmenskultur für das Erreichen von Zielen und als Motivation für Leistung wichtiger geworden ist, als materielle Anreize, Anerkennung oder kennziffergetriebene Prozesse. In mehreren Studien wurde der Zusammenhang zwischen einer starken Unternehmenskultur und dem Unternehmenserfolg nachgewiesen, wobei sich dieser nicht nur auf das Geschäftsmodell bezieht, sondern auch auf Mitarbeiter- und/oder Kundenzufriedenheit, Identität und Loyalität der Mitarbeiter, die Transformation nach innen und außen oder im War of Talents u. a. Des Weiteren entwickelt sich die Unternehmenskultur immer mehr zu einem Wettbewerbsvorteil – und dies kulturübergreifend. Sie ist essenziell für die →Innovationskultur eines Unternehmens und das Fundament für →New Work.
Die Unternehmenskultur zeigt sich in drei Dimensionen: den Artefakten einer Organisation wie z. B. sichtbare Strukturen und Prozesse, den Unternehmenswerten als sichtbarer Ausdruck des Selbstverständnisses wie z. B. dem Leitbild sowie Verhaltensmuster, die sich in selbstverständlichen Anschauungen, Wahrnehmungen und Abläufen wiederspiegeln.
Gradmesser für die Unternehmenskultur ist die kulturelle Kohärenz (oder Inkohärenz) zwischen den Vorgaben der Führungskräfte sowie der authentischen Vorbildfunktion und der Wahrnehmung der Mitarbeiter, wie diese im Tagesgeschäft und vor allem in Stresssituationen gelebt werden und hier insbesondere, wie mit Abweichungen umgegangen wird. In den meisten Unternehmen haben die Mitarbeiter das Gefühl, dass sie nicht wahrgenommen werden, ihre Leistung nicht gesehen und anerkannt wird, ihre Arbeitsplätze nicht integrativ genug sind und vor allem, dass sie nicht authentisch sein können, wenn sie sich dadurch keine Nachteile verschaffen wollen. Dies kann zu einem Code-Switching führen, bei dem Mitarbeiter ihr Verhalten bis hin zu ihrem Sprachmuster anpassen, um fairer behandelt oder bevorteilt zu werden. In diesen Fällen entwickelt sich eine parallele Unternehmenskultur, die zum Verlust von Identität und Fachkräften sowie zur inneren Kündigung bei den verbleibenden Mitarbeitern führt. Um dem vorzubeugen, bietet sich ein gezieltes Kulturmanagement an. Dieses beginnt mit einer Bestandsaufnahme und der →Unternehmenskulturanalyse.
Terrence Deal und Allen Kennedy unterschieden Anfang der 1980-er Jahre die Unternehmenskultur in vier Organisationstypologien. Hierbei differenzieren sie zwei Hauptmerkmale: die Höhe der Risikobereitschaft und die Geschwindigkeit der Feedback-Kultur der jeweiligen Organisation. Infolgedessen entstand eine Matrix, bestehend aus vier Quadranten: einer hierarchischen Prozess- und Verfahrenskultur, einer teamorientierten Brot- und Spiele-Kultur, einer analytischen Projektkultur und einer risikoorientierten (alles oder nichts) Machokultur. Charles Handy dagegen unterteilte Ende der 1980-er Jahre die Unternehmenskultur in Power (Macht), Task Culture (Aufgabenkultur), Role Culture (Personenkultur) und Role Culture (Rollenkultur).
Die Unternehmenskultur unterliegt einer starken Veränderung, einer grundlegenden Transformation und komplett neuen Ausrichtung mit tiefgreifenden Konsequenzen in allen Unternehmensbereichen. Folgende Merkmale identifizieren diesen Prozess: der Wandel von einer aufgaben- und prozessorientierten zu einer team- und ergebnisorientierten Arbeitsweise, von einer geschlossenen Organisation in stabilen Silos mit klaren Zuständigkeiten und Kompetenzen zu einer offenen Organisation mit agilen und wechselnden Teams und interdisziplinären Projekten, von normativen Vorgaben mit statischen Kennziffern und einem regulativen Controlling hin zu einer pragmatischen und iterativen Vorgehensweise und einem situativen Reporting, von einer Entweder-oder-Entscheidung zu einem Sowohl-als-auch-Kompromiss, von konstanten Zielen mit zentraler Steuerung zu sich situativ verändernden Zielen mit dezentraler Steuerung sowie einem Festhalten am Bewährten und nur so viel Veränderung wie unbedingt nötig zu einer hohen Veränderungsrate und der permanenten Suche nach Optimierung, Automatisierung und Disruption.
Upskilling
U wie Upskilling
Im Zusammenhang mit der Digitalisierung taucht immer öfter der Begriff „Upskilling“ auf. Dieser beschreibt die Weiterentwicklung der Hard- und Softskills sowie die Entwicklung digitaler Fähigkeiten, um mit der rasanten Entwicklung mithalten zu können. Das Recruiting qualifizierter Mitarbeiter gestaltet sich zunehmend schwierig und neue Mitarbeiter einzustellen und einzuarbeiten ist zeitaufwändig und ist mit Kosten verbunden. Deshalb erkennen immer mehr Unternehmen den Wert, bestehende Mitarbeiter durch Upskilling auf alle Bereiche der Digitalisierung vorzubereiten und aktiv mit einzubinden und somit so genannten „Skill Gaps“ (Wissenslücken) vorzubeugen und zu schließen. Obwohl der Begriff Upskilling häufig im Zusammenhang mit digitalen und technologischen Weiterbildungen verwendet wird, können die Maßnahmen alle Bereiche und Themen umfassen. Somit wird der Begriff auch für Soft Skills wie z. B. Persönlichkeitsentwicklung oder Konfliktmanagement sowie Fähigkeiten wie Kreativität, Leadership, Kommunikation oder Anpassungsfähigkeit verwendet. Upskilling hat auch eine psychologische Wirkung, da sich Mitarbeiter wertgeschätzt fühlen, wenn ihre Stärken gefördert werden und in den Mittelpunkt rücken. Infolgedessen steigt die Motivation und Identität mit dem Unternehmen mit positiven Auswirkungen auf die Unternehmenskultur und das Firmenimage.
UX-/UI-Design
U wie UX-/UI-Design
Die Begriffe UX für User Experience und UI für User Interface überschneiden sich oft, wenn von UX-/UI-Design die Rede ist. Auch wenn beide Begriffe eng miteinander verflochten sind, beschreiben sie jeweils andere Aufgaben, Kompetenzen und Herangehensweisen. Das User Experience Design fokussiert sich auf die Analyse und Identifizierung der Zielgruppen und ihres individuellen Nutzerverhaltens (Buyer Personas) sowie der Entwicklung der Informationsarchitektur und der Wireframes. In dieser Phase wird der spätere Workflow entwickelt, der aus Kundensicht so intuitiv, sinnvoll und anwenderfreundlich wie möglich sein soll. An diesem Prozess sind Benchmarking, Nutzeranalyse, Research, Erstellung von Personas, Entwicklung der Prototypen, Testen, Branding, Design, Usability beteiligt. Die Herausforderung besteht darin, eine gute User Experience für möglichst viele Zielgruppen und möglichst alle Kontexte zu schaffen und sich hierbei an der Customer Journey zu orientieren. User Experience Design setzt sich mit den Eindrücken, Gefühlen und Emotionen der User auseinander, wenn sie mit einem bestimmten Produkt interagiert. Dieses sollte vor allem einfach, unkompliziert und reibungslos in der Anwendung sein (Usability).
Das User Interface Design visualisiert die Erkenntnisse und Ergebnisse aus dem UX-Design in visuelle Elemente und Interaktionen. Somit setzt sich UI-Design nicht mit dem gesamten Produktdesign auseinander, sondern nur mit einem Aspekt: der Ästhetik. User Interface ist die Verbindung zwischen Nutzer und Produkt, also die Schnittstelle (Touchpoints), an der beide interagieren. Farben, Fonts, Menüleisten, Buttons, Icons, Galerien, Infokästen und dgl. gehören alle zum User-Interface-Design. Es ist verantwortlich für das Aussehen und die Haptik des Produkts, indem es die in der UX-Design-Phase entwickelten Wireframes und Prototypen in eine ansprechende Gestaltung bringt, die Interaktion umsetzt oder für verschiedene Bildschirmgrößen und Geräte optimiert. Damit UI-Designer ihre “Mission” erfüllen können, müssen sie einerseits neueste Designtrends umsetzen und andererseits an der Markenidentität festhalten, ohne die Benutzerfreundlichkeit aufzugeben. Diesen Dreiklang in Einklang zu bringen, ist die Aufgabe des User Interface Design.
Während sich das User Interface-Design auf den Look fokussiert und für den ersten Eindruck des Users verantwortlich ist, konzentriert sich das User Experience-Design auf das Feeling sowie Prozesse und Aktionen, mit der die Nutzung ausgelöst wird.
V wie „Valley of death“
V wie „Valley of death“
Neue Innovationen erfordern finanzielle Ressourcen, um von der Idee und Entwicklung über die Markteinführung und -etablierung bis hin zum wirtschaftlichen Erfolg überleben zu können. Hierbei spielt es eine große Rolle, wer diese Ressourcen zu welchem Zeitpunkt im →Innovationsprozess zur Verfügung stellt. Denn in den seltensten Fällen wird die Investition in Spitzentechnologie oder →Sprunginnovation von privatwirtschaftlichen Unternehmen geleistet. Ein Großteil der Primärforschung wird über öffentliche Mittel finanziert, z. B. an Universitäten, die nach neuen Technologien suchen. Denn diese Phase ist nicht nur kommerziell unrentabel, sondern auch mit hohen Risiken verbunden. Sobald neue Technologien etabliert sind und sich daraus Produkte, Dienstleistungen oder komplett neue Geschäftsmodelle entwickeln lassen, investieren Unternehmen, um Innovationen erfolgreich zu vermarkten und diese für eine breite kommerzielle Anwendung zu skalieren.
Wenn in der Übergangszeit die öffentliche Förderung nicht ausreicht und private Investoren noch nicht bereit sind, die notwendigen finanziellen Ressourcen zur Verfügung zu stellen, spricht man auch vom „Valley of death“. Dieses Tal des Todes kann unterschiedlich tief und/oder breit ausgeprägt sein und entscheidet in der Regel darüber, ob ein Entwicklungsprojekt dieses Stadium übersteht und fortgesetzt werden kann oder ob diese Projekte und somit Innovationen sterben. Das „Valley of death“-Modell wird verwendet, um das finanzielle Risiko einer Innovation visuell darzustellen. Eine der häufigsten Ursachen hierfür liegt im Gesetz der Diffusion von Innovationen, dass nur ein geringer Teil der Unternehmen bereit ist, in völlig neue Innovationen zu investieren. Für sie ist das Risiko nicht kalkulierbar und die Rentabilität nicht planbar.
V wie Value Proposition Canvas
Das Value Proposition Canvas ist ein Instrument im Business Modell, mit dem das zentrale Wertversprechen und Nutzenversprechen gegenüber dem Kunden definiert wird. Durch die Visualisierung werden die Stärken des eigenen Angebots sowie die Wünsche und Nöte der Kunden deutlich und eine Differenzierung möglich. Die Stärken des eigenen Angebots werden nach „Gewinnen“ und „Problemlösern“ für die Kunden unterschieden. Somit zeigt dieses Instrument, mit welchem Leistungsversprechen Kunden möglichst effektiv angesprochen werden können. Außerdem deckt es die Schwächen des eigenen Angebotes aus Kundenperspektive auf. Die systematische Ausarbeitung einer Value Proposition ist die Grundlage für die Sortimentsstrategie, der Positionierung im Marketing, der Wettbewerbsstrategie, der Vertriebsstrategie und Preisgestaltung und entscheidet über den Erfolg im Markt.
Das Value Proposition Canvas ist in zwei Bereiche eingeteilt. Auf der rechten Seite wird ein Kundensegment und seine Bedürfnisse betrachtet. Je nach Branche und Diversität müssen Kundencluster oder eigene Buyer Personas entwickelt werden, die anschließend aus drei Blickwinkeln betrachtet werden:
- Pains (Schatten): welches Problem muss der Kunde eigentlich lösen und welche Herausforderungen warten hierbei auf ihn. Die Hindernisse und Frustrationen, die den Kunden von seiner Zielerreichung abhalten können, werden in dem Value Proposition Canvas aufgelistet.
- Gains (Licht): was kann der Kunde eigentlich gewinnen. Welche Ziele oder positiven Ergebnisse kann der Kunde mit der Erledigung seiner Aufgaben erzielen. Wie fühlt er sich, wenn er sein Ziel erreicht hat.
- Customer Jobs: beschreiben funktionale, emotionale und soziale Bedürfnisse des Kunden. Konkret geht es um die Frage, was der Kunde erreichen will. Gerade soziale und emotionale Aspekte werden in der Value Proposition häufig zu wenig gewürdigt und fallen einer rationalen und funktionalen Betrachtung zum Opfer.
Auf der linken Seite wird die eigene Value Proposition dargestellt. Auch diese erfolgt wieder aus drei Blickwinkeln:
- Pain Relievers: oft auch als die „Kopfschmerztablette“ für den Kunden bezeichnet sind sie die Antwort auf die Pains der Kunden. Im Value Proposition Canvas wird aufgelistet, wie konkret das eigene Leistungsversprechen aus Produkten, Angeboten und Services die Probleme der Kunden lösen und die Frustrationen senken kann.
- Gain Creators: sind die „Extras” für den Kunden, also Angebote, die zusätzlichen und ggf. auch unerwarteten Wert für den Kunden erzeugen. Diese Merkmale im eigenen Leistungsangebot werden im Kano-Modell mindestens als Performance- oder sogar Begeisterungsmerkmale genannt.
- Produkte und Services: sind die konkrete Antwort auf die Probleme, Bedürfnisse und Herausforderungen von Kunden. An der Stelle im Value Proposition Canvas werden die Leistungsmerkmale und Features aufgelistet. Auch diese sollten wieder in funktionale, soziale oder emotionale Aspekte differenziert werden. Wichtig ist, dass die Leistungsmerkmale und Features nicht beliebig und unspezifisch sind, sondern konkret beantworten, ob und wie diese aus Kundensicht bedeutsam sind.
Wenn die Bedürfnisse der Kunden in der Value Proposition definiert wurden, wird anschließend der Problem-Solution Fit adressiert. Das Value Proposition Statement bringt die Value Proposition auf den Punkt. Hierbei hat sich bewährt, den Problem Solution Fit durch einen Prototypen oder MVP zu validieren.
Das Value Proposition Canvas ist eine hervorragende Ergänzung zum Business Model Canvas. Es dient für ein gemeinsames Verständnis und als Orientierung nach innen und außen und ist ein wertvolles Kommunikationswerkzeug.
V wie van Westendorp Modell
→Price Sensitivity Meter (PSM)
V wie Venture Capital Fonds
Die Bezeichnung Venture Capital Fonds kommt aus dem Englischen und kann sinngemäß mit Wagnisinvestment übersetzt werden. Der Anleger investiert sein Kapitalvermögen in ein junges und noch nicht etabliertes Unternehmen, um von einer positiven Entwicklung des Startups finanziell profitieren zu können. In der Regel erfolgen derartige Investments bereits in der so genannten Seed-Phase des Unternehmens, was u. a. die Möglichkeiten hoher Renditen erklärt. Da jedoch zu diesem Zeitpunkt das Startup noch nicht am Markt platziert wurde, ist das Investment in die Venture Capital Fonds auch immer mit einem Risiko verbunden, was eine Wagnisbereitschaft des Anlegers erfordert. Venture Capital Fonds ermöglichen Anlegern, indirekt in Startups zu investieren. Hierfür wird in der Regel das Prinzip Private Equity angewendet.
V wie Vertrieb der Zukunft
Im Zuge der Digitalisierung fällt immer öfter der Begriff „Vertrieb der Zukunft“ oder synonym „Digitaler Vertrieb“ und „Vertrieb 4.0“. Hierbei handelt es sich um die Transformation von Vertriebsorganisationen und -strukturen. Zum besseren Verständnis hilft die Retrospektive:
- Vertrieb 1.0 beschreibt den absatz- oder verkäuferdominierten Markt bis zur Einführung des Internet. Der Kunde bezog seine Informationen nur durch den Außendienst und/oder über gedruckte Informationen (Katalog, Preisliste, Broschüren, Mailings, Anzeigen etc.). Der Kunde war nicht nur auf diese Quellen angewiesen; er war auch gezwungen, diesen zu vertrauen.
- Vertrieb 2.0 beschreibt den kundenbasierten Markt und definiert die Phase nach Einführung des Internet. Produkte, Angebote und Anbieter wurden transparent, so dass der Rollentausch zum Käufermarkt eingeläutet war. Der Verkäufer musste seitdem die Bedürfnisse seiner Kunden befriedigen.
- Mit der gleichzeitigen Weiterentwicklung des Internets zum Social Web begann die Phase Vertrieb 3.0, da sich Kunden nun nicht mehr nur über Produkte und Angebote informierten, sondern diese verglichen, bewerteten und kaufentscheidende Kriterien in der Community austauschten. Was anfänglich im B2C-Bereich üblich war, schwappte zunehmend auch in den B2B-Bereich über. Das Internet war nicht mehr nur noch Informationsquelle oder Kommunikationsplattform, sondern zunehmend auch Marktplatz der Kunden. Dies zum einen in der Beschaffung und zum anderen, weil nun z. B. auch Kunden anfänglich Produkte ihrer Lieferanten wiederverkauften und sich schnell zu Wettbewerbern entwickelten, wenn andere Marken mit angeboten wurden.
- Vertrieb 4.0 steht für ein völlig anderes Informations- und Beschaffungsverhalten, eine bedingungslose Kundenorientierung sowie eine crossmediale Kundenkommunikation. Der Kunde – auch im B2B-Bereich – erwartet heute zum richtigen Zeitpunkt (jederzeit) die relevanten Informationen (spezifisch) auf dem bevorzugten Kanal (Interaktion) im geeigneten Format (Relevanz). Für Hersteller mit unterschiedlichen Kunden und Zielgruppen sowie einer umfangreichen Sortimentsbreite und -tiefe setzt dies ein sehr differenziertes Marketing voraus. Neben einem hohen Kunden- und Zielgruppenverständnis in Bezug auf Bedarf und Bedürfnis, Abläufe und Prozesse gehört hierzu auch ein fundiertes Produkt- und Anwendungswissen, um die relevanten Informationen bereit zu stellen. Nicht mehr das Produkt mit seinen Eigenschaften und Vorteilen steht im Fokus, sondern die Lösung mit Nutzen und Mehrwert. Kunden adressieren sehr eindeutig ihre Wünsche und Erwartungen, aber eben nicht mehr persönlich gegenüber dem Außendienst, sondern in Form ihrer Suche im 365/24/7-Modus im Internet. Wer bei dieser Suche nicht gefunden wird, findet quasi nicht statt (eine starke Kunden- und Markenbindung mal ausgenommen – noch!). Denn auch im B2B-Bereich haben sich fast Zweidrittel der Kunden bereits im Internet informiert und fast die Hälfte eine Kaufentscheidung getroffen, bevor sie Kontakt zum Vertrieb aufnehmen.
Der Kunde von heute erwartet, dass ihm die Informationen in der Form aufbereitet und zu dem Zeitpunkt zur Verfügung gestellt werden, wenn er diese benötigt. Er ignoriert plumpe Werbung mit plakativen Versprechungen und viel zu viel Eigendarstellung. Und selbstverständlich informiert er sich digital; auf der Website, auf Branchenportalen, in den sozialen Netzwerken sowie in Blogs und Foren. Deshalb trifft er auch seine Kaufentscheidung weitestgehend auf Grundlage der digital zur Verfügung stehenden Informationen und nicht erst, wenn er Kontakt zum Vertrieb aufnimmt. Und dies nicht selten, um durch die Beantwortung seiner Fragen eine finale Bestätigung seiner (Vor-)Entscheidung zu bekommen. Infolgedessen wandelt sich das traditionelle Push-Modell zunehmend in ein Pull-Logik. Nicht mehr der Vertrieb setzt die Impulse in der Interaktion mit dem Kunden, veranlasst das Aussenden von Unterlagen oder bestimmt Termine und Inhalte von Meetings. Der Kunde 4.0 ist mündig, autark und hat sehr klare Vorstellungen.
Die Zeiten, in denen der Begriff des Außendienstes zeitgemäß war, ist lange vorbei – denn „da draußen“ findet kaum noch Verkauf statt. Das neue Zauberwort heißt „Sales Intelligence“ und greift auf umfangreiche Kundendaten zurück, die weit über das bekannte CRM hinausgehen und kombiniert diese mit Simulationen und Algorithmen. Es geht nicht mehr darum, den Status Quo zu analysieren, sondern die Zukunft zu simulieren. So lassen sich auch Warenströme in der Supply Chain besser planen und optimieren.
Das Marketing übernimmt immer mehr den digitalen Vorverkauf und wird zukünftig der erste und wichtigste Touchpoint zum Kunden. Um alle digitalen Kanäle mit hoher Qualität und Relevanz bespielen zu können, wird das Inbound Marketing und Account Based Marketing essenziell in der Kundenkommunikation. Kunden erwarten ganzheitliche Onlineberatung mit problem- und/oder anwendungsbezogenen Systemlösungen, die in einem vernetzten Ökosystem sämtliche Informationen und Dokumente bereitstellen. Technische Assistenten und intelligente Konfiguratoren sind die neuen Produkt-Finder und bieten dem digitalen Kunden nicht nur statische Produktinformationen, sondern dynamische Inhalte durch zielgruppenspezifische Interaktion. Der →virtuelle Fachberater oder →intelligente Produktkatalog sind nur zwei Beispiele für den digitalen Vertrieb der Zukunft. Digitale Sprachassistenten haben mittlerweile die Qualität, um „mobile first“ in „voice first“ abzulösen. Und technische Entwicklungen wie →Augmented Reality oder →Virtual Reality ermöglichen eine Visualisierung der Informationen, wie sie der B2B-Bereich noch nicht erlebt hat. Künstliche Intelligenz, intelligente Chatbots und smart Sales-Tools werden nicht nur für eine konsequente Kundenorientierung und eine höhere Effizienz sorgen, sondern neue Geschäftsmodelle wie digitales Servicedesign ermöglichen und somit die Wertschöpfung in Zukunft wesentlich beeinflussen.
Remote Sales, hybrider Vertrieb, Social Selling, Sales Enablement, digitale Vertriebskanäle, agile Kundenbeziehungen, Customer Experience oder auch Fachkräftemangel im Vertrieb sind einige der Herausforderungen, mit denen sich Vertriebsorganisationen in den nächsten Jahren auseinandersetzen müssen. Neue Geschäftsmodelle erfordern innovative Vertriebskonzepte und Business-Agilität in allen Unternehmensbereichen. Vertrieb ist keine Aufgabe einer Abteilung mehr, sondern muss zum Selbstverständnis und somit zur Querschnittsfunktion im gesamten Unternehmen werden. Diese entscheidet darüber, ob Vertrieb in der Zukunft bedeutet, dass der analoge oder hybride Vertrieb durch digitale Tools unterstützt wird, der digitale Vorverkauf über digitale Kanäle erfolgt und nach Kontaktaufnahme in den Vertriebsprozess überführt wird oder der komplette Vertrieb digital stattfindet, in dem ganzheitliche Plattformen intelligente Assistenten und Konfiguratoren anbieten, aus denen Kunden ihre Lösungen konfigurieren und über den integrierten eCommerce auch bestellen können.
V wie 4D-Druck
Das 4D-Druckverfahren ist eine Weiterentwicklung des bisherigen →3D-Drucks, einem additiven Herstellungsverfahren, bei dem aufbauend Material hinzugefügt wird und somit Schicht für Schicht 3-dimensionale Objekte entstehen. Neu dagegen ist der 4D-Druck, bei dem nicht nur Objekte in 3 Dimensionen erzeugt werden, sondern sich anschließend noch verändern können. Durch bauphysikalische Einflüsse kommt es häufig zu Beanspruchungen von Bauteilen wie z. B. Dehnung bei Erwärmung oder Schwinden bei Abkühlung, die zu Schäden führen können. Bei der 4D-Drucktechnologie nutzt man diese Effekte, damit sich bei einem 3D-gedruckten Objekt unter dem Einfluss von sensorischen Auslösern wie z. B. externer Energiezufuhr durch Sonneneinstrahlung oder bei Kontakt mit Wasser oder durch Vibrationen oder Schall die Struktur verwandeln kann. Gegenüber dem Status quo kombiniert der 4D Druck Technologie und Design und ermöglicht intelligente Baustoffe, die sich anpassen oder reparieren können. Somit eröffnen sich ungeahnte Möglichkeiten, um programmierbare Materialtechnologien zu erfinden. Gegenüber dem 3D Druck kommt die Zeit als vierte Dimension und steht für die Fähigkeit, die Form mit der Zeit zu verändern. Wie keine andere Technologie im Bauwesen verbindet der 4D-Druck Materialwissenschaft und Werkstofftechnik, Chemie und Bioengineering mit Informatik und Ingenieurwissenschaften. Eingesetzt werden hierfür „intelligente Baustoffe“ auf Basis spezieller Hydrogele oder Polymere. Aufgrund ihrer thermomechanischen sowie weiterer Materialeigenschaften erhalten intelligente Baustoffe die Eigenschaft der Formveränderung.
Übliche 3D-Druckmaterialien sind heute noch zementbasiert und verkörpern aufgrund der hohen CO2-Emissionen, die bei der Herstellung von Zement erzeugt werden, eine alte Technologie, die nicht zukunftsorientiert ist. Die Herausforderung besteht darin, zementfreie Schäume mit hoher Festigkeit und gleichzeitig hoher Porosität zu entwickeln, um neben der Tragfähigkeit auch die Wärmedämmung, Schallschutz und Brandschutz sicherzustellen. Diese zementfreien Schäume mit der Technologie im 4D Druck-Verfahren zu kombinieren ist die Zukunft der additiven Fertigung.
V wie 4D-Innovationsprozess
Für die Beschreibung eines idealen Innovationsprozesses gibt es verschiedene Modelle. Diese sind in den letzten Jahren zunehmend an ihre Grenzen gestoßen, da sie in einer Zeit entwickelt wurden, als Unternehmen noch für sich allein innoviert haben (→Closed Innovation) oder sich auf klassische Produktinnovationen reduzierten. Insbesondere Projekte von →digitalen Innovationen verlaufen heute dynamischer und erfordern offene und agile Problemfindungs- und Lösungsentwicklungsprozesse. Der herkömmliche →KVP-Prozess oder auch das →Stage-Gate-Modell können dies nicht leisten. Echte Probleme aus Kundensicht zu identifizieren ist deutlich schwieriger als Lösungen zu entwickeln. Eine der wichtigsten Ursachen für die →Innovationsfalle ist, dass Unternehmen zu wenig Ressourcen in die Problem-Suche, -Qualifizierung, -Quantifizierung und -Priorisierung investieren und Lösungen aus der Innensicht entwickeln, die keine Probleme lösen, keinen Bedarf abdecken oder Relevanz für die Zielgruppe haben.
Der 4D-Innovationsprozess orientiert sich an der →Double Diamond Strategie und den vier Handlungsschwerpunkten Discover, Define, Develop und Deliver und ist somit ein Teil des →Design-Thinkings. Herzstück des 4D-Innovationsprozesses ist die Designmethodik des Design Council mit ihrer klaren, umfassenden und visuellen Beschreibung des Designprozesses. Die beiden Rauten stellen einen Prozess dar, bei dem ein Problem umfassender oder tiefer untersucht wird (divergentes Denken) und dann gezielt gehandelt wird (konvergentes Denken). Die erste Raute (Entdecken) hilft, das Problem zu verstehen, anstatt es einfach anzunehmen. Es geht darum, Betroffene zu Beteiligten zu machen und diese in den Prozess mit einzubeziehen. Die aus der Entdeckungsphase gewonnenen Erkenntnisse helfen, die Herausforderung konkret zu definieren. Die ersten beiden Phasen (Discover und Define) sind problemfokussiert. In der zweiten Raute geht es darum, unterschiedliche Lösungen und Antworten auf ein klar definiertes Problem zu geben, aber auch sich zusätzlich inspirieren zu lassen und nicht mit den erstbesten Lösungen zufrieden zu geben, damit kreative Ideen und Innovationen entwickelt werden. Diese werden in der vierten Phase getestet und in iterativen Schleifen immer wieder verworfen oder optimiert, bis ein funktionierender Prototyp entwickelt wurde. Die letzten beiden Phasen (Develop und Deliver) sind lösungsorientiert.
V wie Virtual Reality (VR)
Der Begriff Virtual Reality beschreibt die Wahrnehmung einer virtuellen und interaktiven Welt, die den Nutzer vollständig umgibt und auf eine möglichst natürliche Art auf dessen individuelle Aktionen reagiert. Die computergenerierte 3D-Umgebung ist nicht real, ist jedoch in ihrer Funktionalität und/oder Wirkung vorhanden und kann daher über ein oder mehrere Sinne mittels geeigneter Systeme auch →immersiv erlebt werden. Man spricht dann auch von der VR-Experience (Erlebnis). Hierfür werden meistens Head-Mounted-Displays (HMDs) eingesetzt, die besser bekannt sind unter dem umgangssprachlichen Begriff VR-Brille. Erstmals tauchte der Begriff Virtual Reality Ende der 1980-er Jahre von dem Informatiker Jaron Lanier auf, der darunter verschiedene innovative Geräteentwicklungen und Forschungsarbeiten im Bereich der 3D-Echtzeit-Computergraphik zusammenfasste.
Virtual Reality beschreibt sowohl eine Technologie als auch ein digitales Medium, das beim Nutzer die physische Realität ausblendet. Kernelemente stellen Interaktion und Immersion dar, die beim Nutzer ein starkes Gefühl der Präsenz erzeugen können und dafür geeignet sind, Virtual Reality von anderen Informations- und Kommunikationsmedien abzugrenzen. Bisher wenig erforscht sind die mentalen Aspekte von Virtual Reality, verbunden mit der Frage, welche soziokulturellen Auswirkungen die virtuelle Realität auf die menschliche Wahrnehmung hat, wenn sich diese von der physischen Realität nicht mehr oder kaum noch unterscheiden lässt.
V wie VUCA
Der Begriff VUCA kommt ursprünglich aus dem amerikanischen Militär und wurde verwendet, um neuartige Zustände, unerwartete Ereignisse oder unbekannte Bedingungen in der Weltpolitik zu beschreiben. VUCA ist ein Akronym für Volatility, Uncertainty, Complexity und Ambiguity bzw. im Deutschen entsprechend für Volatilität (Flüchtigkeit), Unsicherheit (oder Ungewissheit), Komplexität und Ambiguität (Mehrdeutigkeit). In den 1980-er Jahren wurde VUCA erstmals in Verbindung mit Herausforderungen durch verschiedene externe Faktoren für Management und Leadership erwähnt und Theorien abgeleitet, welche Folgen sich daraus für die Unternehmensführung ergeben. Auch die aktuelle Arbeits- und Geschäftswelt lässt sich mit diesen Begriffen beschreiben und steht für ein stetig änderndes Umfeld, das zunehmend schneller, unvorhersehbarer, unsicherer und komplexer wird und somit große Herausforderungen für Unternehmen mit sich bringt. Durch Digitalisierung und Globalisierung werden Prozesse immer schneller, herkömmliche Theorien, Muster und Konzepte funktionieren nicht mehr, feste Regeln sind nicht mehr zeitgemäß, die Zukunft ist ungewiss und unzählige Faktoren müssen berücksichtigt werden. Die ohnehin vorhandene Komplexität steigt durch global vernetzte Systeme. Diese sind so eng ineinander verzahnt, dass Ursache-Wirkungs-Zusammenhänge schwer zu erklären sind und eine Rückkopplung der Systeme bzw. das Verändern von Komponenten daraus unvorhersehbare Folgen haben können. Die Wahrscheinlichkeit für Ereignisse lässt sich immer schwerer einschätzen, mittel- und langfristige Planungen sind kaum noch möglich und Unternehmen und Organisationen müssen lernen, Handlungs- und Unternehmensstrategien immer so flexibel zu entwickeln, um auf Veränderungen angemessen reagieren zu können. Situationen werden nicht nur ungewiss sondern auch zunehmend mehrdeutig, da die Verlässlichkeit der großen Daten- und Informationsflut immer unklarer wird und einen Interpretationsspielraum zulässt.
Eine Möglichkeit, um auf die Herausforderungen der VUCA-Welt reagieren zu können und die Chancen zu nutzen, die sich aus der Situation ergeben können, könnte ebenfalls VUCA heißen. Dieses Mal steht das Akronym für Vision, Understanding (Verstehen), Clarity (Klarheit) und Agilität und zielt insbesondere auf Transformation, Change-Management, Leadership und Führungsstil ab. VUCA sagt verkrusteten Hierarchien, Silo- und Bereichsdenken sowie langen Entscheidungswegen den Kampf an.
„Valley of death“
V wie „Valley of death“
Neue Innovationen erfordern finanzielle Ressourcen, um von der Idee und Entwicklung über die Markteinführung und -etablierung bis hin zum wirtschaftlichen Erfolg überleben zu können. Hierbei spielt es eine große Rolle, wer diese Ressourcen zu welchem Zeitpunkt im →Innovationsprozess zur Verfügung stellt. Denn in den seltensten Fällen wird die Investition in Spitzentechnologie oder →Sprunginnovation von privatwirtschaftlichen Unternehmen geleistet. Ein Großteil der Primärforschung wird über öffentliche Mittel finanziert, z. B. an Universitäten, die nach neuen Technologien suchen. Denn diese Phase ist nicht nur kommerziell unrentabel, sondern auch mit hohen Risiken verbunden. Sobald neue Technologien etabliert sind und sich daraus Produkte, Dienstleistungen oder komplett neue Geschäftsmodelle entwickeln lassen, investieren Unternehmen, um Innovationen erfolgreich zu vermarkten und diese für eine breite kommerzielle Anwendung zu skalieren.
Wenn in der Übergangszeit die öffentliche Förderung nicht ausreicht und private Investoren noch nicht bereit sind, die notwendigen finanziellen Ressourcen zur Verfügung zu stellen, spricht man auch vom „Valley of death“. Dieses Tal des Todes kann unterschiedlich tief und/oder breit ausgeprägt sein und entscheidet in der Regel darüber, ob ein Entwicklungsprojekt dieses Stadium übersteht und fortgesetzt werden kann oder ob diese Projekte und somit Innovationen sterben. Das „Valley of death“-Modell wird verwendet, um das finanzielle Risiko einer Innovation visuell darzustellen. Eine der häufigsten Ursachen hierfür liegt im Gesetz der Diffusion von Innovationen, dass nur ein geringer Teil der Unternehmen bereit ist, in völlig neue Innovationen zu investieren. Für sie ist das Risiko nicht kalkulierbar und die Rentabilität nicht planbar.
Value Proposition Canvas
V wie Value Proposition Canvas
Das Value Proposition Canvas ist ein Instrument im Business Modell, mit dem das zentrale Wertversprechen und Nutzenversprechen gegenüber dem Kunden definiert wird. Durch die Visualisierung werden die Stärken des eigenen Angebots sowie die Wünsche und Nöte der Kunden deutlich und eine Differenzierung möglich. Die Stärken des eigenen Angebots werden nach „Gewinnen“ und „Problemlösern“ für die Kunden unterschieden. Somit zeigt dieses Instrument, mit welchem Leistungsversprechen Kunden möglichst effektiv angesprochen werden können. Außerdem deckt es die Schwächen des eigenen Angebotes aus Kundenperspektive auf. Die systematische Ausarbeitung einer Value Proposition ist die Grundlage für die Sortimentsstrategie, der Positionierung im Marketing, der Wettbewerbsstrategie, der Vertriebsstrategie und Preisgestaltung und entscheidet über den Erfolg im Markt.
Das Value Proposition Canvas ist in zwei Bereiche eingeteilt. Auf der rechten Seite wird ein Kundensegment und seine Bedürfnisse betrachtet. Je nach Branche und Diversität müssen Kundencluster oder eigene Buyer Personas entwickelt werden, die anschließend aus drei Blickwinkeln betrachtet werden:
- Pains (Schatten): welches Problem muss der Kunde eigentlich lösen und welche Herausforderungen warten hierbei auf ihn. Die Hindernisse und Frustrationen, die den Kunden von seiner Zielerreichung abhalten können, werden in dem Value Proposition Canvas aufgelistet.
- Gains (Licht): was kann der Kunde eigentlich gewinnen. Welche Ziele oder positiven Ergebnisse kann der Kunde mit der Erledigung seiner Aufgaben erzielen. Wie fühlt er sich, wenn er sein Ziel erreicht hat.
- Customer Jobs: beschreiben funktionale, emotionale und soziale Bedürfnisse des Kunden. Konkret geht es um die Frage, was der Kunde erreichen will. Gerade soziale und emotionale Aspekte werden in der Value Proposition häufig zu wenig gewürdigt und fallen einer rationalen und funktionalen Betrachtung zum Opfer.
Auf der linken Seite wird die eigene Value Proposition dargestellt. Auch diese erfolgt wieder aus drei Blickwinkeln:
- Pain Relievers: oft auch als die „Kopfschmerztablette“ für den Kunden bezeichnet sind sie die Antwort auf die Pains der Kunden. Im Value Proposition Canvas wird aufgelistet, wie konkret das eigene Leistungsversprechen aus Produkten, Angeboten und Services die Probleme der Kunden lösen und die Frustrationen senken kann.
- Gain Creators: sind die „Extras” für den Kunden, also Angebote, die zusätzlichen und ggf. auch unerwarteten Wert für den Kunden erzeugen. Diese Merkmale im eigenen Leistungsangebot werden im Kano-Modell mindestens als Performance- oder sogar Begeisterungsmerkmale genannt.
- Produkte und Services: sind die konkrete Antwort auf die Probleme, Bedürfnisse und Herausforderungen von Kunden. An der Stelle im Value Proposition Canvas werden die Leistungsmerkmale und Features aufgelistet. Auch diese sollten wieder in funktionale, soziale oder emotionale Aspekte differenziert werden. Wichtig ist, dass die Leistungsmerkmale und Features nicht beliebig und unspezifisch sind, sondern konkret beantworten, ob und wie diese aus Kundensicht bedeutsam sind.
Wenn die Bedürfnisse der Kunden in der Value Proposition definiert wurden, wird anschließend der Problem-Solution Fit adressiert. Das Value Proposition Statement bringt die Value Proposition auf den Punkt. Hierbei hat sich bewährt, den Problem Solution Fit durch einen Prototypen oder MVP zu validieren.
Das Value Proposition Canvas ist eine hervorragende Ergänzung zum Business Model Canvas. Es dient für ein gemeinsames Verständnis und als Orientierung nach innen und außen und ist ein wertvolles Kommunikationswerkzeug.
van Westendorp Modell
V wie van Westendorp Modell
→Price Sensitivity Meter (PSM)
Venture Capital Fonds
V wie Venture Capital Fonds
Die Bezeichnung Venture Capital Fonds kommt aus dem Englischen und kann sinngemäß mit Wagnisinvestment übersetzt werden. Der Anleger investiert sein Kapitalvermögen in ein junges und noch nicht etabliertes Unternehmen, um von einer positiven Entwicklung des Startups finanziell profitieren zu können. In der Regel erfolgen derartige Investments bereits in der so genannten Seed-Phase des Unternehmens, was u. a. die Möglichkeiten hoher Renditen erklärt. Da jedoch zu diesem Zeitpunkt das Startup noch nicht am Markt platziert wurde, ist das Investment in die Venture Capital Fonds auch immer mit einem Risiko verbunden, was eine Wagnisbereitschaft des Anlegers erfordert. Venture Capital Fonds ermöglichen Anlegern, indirekt in Startups zu investieren. Hierfür wird in der Regel das Prinzip Private Equity angewendet.
Vertrieb der Zukunft
V wie Vertrieb der Zukunft
Im Zuge der Digitalisierung fällt immer öfter der Begriff „Vertrieb der Zukunft“ oder synonym „Digitaler Vertrieb“ und „Vertrieb 4.0“. Hierbei handelt es sich um die Transformation von Vertriebsorganisationen und -strukturen. Zum besseren Verständnis hilft die Retrospektive:
- Vertrieb 1.0 beschreibt den absatz- oder verkäuferdominierten Markt bis zur Einführung des Internet. Der Kunde bezog seine Informationen nur durch den Außendienst und/oder über gedruckte Informationen (Katalog, Preisliste, Broschüren, Mailings, Anzeigen etc.). Der Kunde war nicht nur auf diese Quellen angewiesen; er war auch gezwungen, diesen zu vertrauen.
- Vertrieb 2.0 beschreibt den kundenbasierten Markt und definiert die Phase nach Einführung des Internet. Produkte, Angebote und Anbieter wurden transparent, so dass der Rollentausch zum Käufermarkt eingeläutet war. Der Verkäufer musste seitdem die Bedürfnisse seiner Kunden befriedigen.
- Mit der gleichzeitigen Weiterentwicklung des Internets zum Social Web begann die Phase Vertrieb 3.0, da sich Kunden nun nicht mehr nur über Produkte und Angebote informierten, sondern diese verglichen, bewerteten und kaufentscheidende Kriterien in der Community austauschten. Was anfänglich im B2C-Bereich üblich war, schwappte zunehmend auch in den B2B-Bereich über. Das Internet war nicht mehr nur noch Informationsquelle oder Kommunikationsplattform, sondern zunehmend auch Marktplatz der Kunden. Dies zum einen in der Beschaffung und zum anderen, weil nun z. B. auch Kunden anfänglich Produkte ihrer Lieferanten wiederverkauften und sich schnell zu Wettbewerbern entwickelten, wenn andere Marken mit angeboten wurden.
- Vertrieb 4.0 steht für ein völlig anderes Informations- und Beschaffungsverhalten, eine bedingungslose Kundenorientierung sowie eine crossmediale Kundenkommunikation. Der Kunde – auch im B2B-Bereich – erwartet heute zum richtigen Zeitpunkt (jederzeit) die relevanten Informationen (spezifisch) auf dem bevorzugten Kanal (Interaktion) im geeigneten Format (Relevanz). Für Hersteller mit unterschiedlichen Kunden und Zielgruppen sowie einer umfangreichen Sortimentsbreite und -tiefe setzt dies ein sehr differenziertes Marketing voraus. Neben einem hohen Kunden- und Zielgruppenverständnis in Bezug auf Bedarf und Bedürfnis, Abläufe und Prozesse gehört hierzu auch ein fundiertes Produkt- und Anwendungswissen, um die relevanten Informationen bereit zu stellen. Nicht mehr das Produkt mit seinen Eigenschaften und Vorteilen steht im Fokus, sondern die Lösung mit Nutzen und Mehrwert. Kunden adressieren sehr eindeutig ihre Wünsche und Erwartungen, aber eben nicht mehr persönlich gegenüber dem Außendienst, sondern in Form ihrer Suche im 365/24/7-Modus im Internet. Wer bei dieser Suche nicht gefunden wird, findet quasi nicht statt (eine starke Kunden- und Markenbindung mal ausgenommen – noch!). Denn auch im B2B-Bereich haben sich fast Zweidrittel der Kunden bereits im Internet informiert und fast die Hälfte eine Kaufentscheidung getroffen, bevor sie Kontakt zum Vertrieb aufnehmen.
Der Kunde von heute erwartet, dass ihm die Informationen in der Form aufbereitet und zu dem Zeitpunkt zur Verfügung gestellt werden, wenn er diese benötigt. Er ignoriert plumpe Werbung mit plakativen Versprechungen und viel zu viel Eigendarstellung. Und selbstverständlich informiert er sich digital; auf der Website, auf Branchenportalen, in den sozialen Netzwerken sowie in Blogs und Foren. Deshalb trifft er auch seine Kaufentscheidung weitestgehend auf Grundlage der digital zur Verfügung stehenden Informationen und nicht erst, wenn er Kontakt zum Vertrieb aufnimmt. Und dies nicht selten, um durch die Beantwortung seiner Fragen eine finale Bestätigung seiner (Vor-)Entscheidung zu bekommen. Infolgedessen wandelt sich das traditionelle Push-Modell zunehmend in ein Pull-Logik. Nicht mehr der Vertrieb setzt die Impulse in der Interaktion mit dem Kunden, veranlasst das Aussenden von Unterlagen oder bestimmt Termine und Inhalte von Meetings. Der Kunde 4.0 ist mündig, autark und hat sehr klare Vorstellungen.
Die Zeiten, in denen der Begriff des Außendienstes zeitgemäß war, ist lange vorbei – denn „da draußen“ findet kaum noch Verkauf statt. Das neue Zauberwort heißt „Sales Intelligence“ und greift auf umfangreiche Kundendaten zurück, die weit über das bekannte CRM hinausgehen und kombiniert diese mit Simulationen und Algorithmen. Es geht nicht mehr darum, den Status Quo zu analysieren, sondern die Zukunft zu simulieren. So lassen sich auch Warenströme in der Supply Chain besser planen und optimieren.
Das Marketing übernimmt immer mehr den digitalen Vorverkauf und wird zukünftig der erste und wichtigste Touchpoint zum Kunden. Um alle digitalen Kanäle mit hoher Qualität und Relevanz bespielen zu können, wird das Inbound Marketing und Account Based Marketing essenziell in der Kundenkommunikation. Kunden erwarten ganzheitliche Onlineberatung mit problem- und/oder anwendungsbezogenen Systemlösungen, die in einem vernetzten Ökosystem sämtliche Informationen und Dokumente bereitstellen. Technische Assistenten und intelligente Konfiguratoren sind die neuen Produkt-Finder und bieten dem digitalen Kunden nicht nur statische Produktinformationen, sondern dynamische Inhalte durch zielgruppenspezifische Interaktion. Der →virtuelle Fachberater oder →intelligente Produktkatalog sind nur zwei Beispiele für den digitalen Vertrieb der Zukunft. Digitale Sprachassistenten haben mittlerweile die Qualität, um „mobile first“ in „voice first“ abzulösen. Und technische Entwicklungen wie →Augmented Reality oder →Virtual Reality ermöglichen eine Visualisierung der Informationen, wie sie der B2B-Bereich noch nicht erlebt hat. Künstliche Intelligenz, intelligente Chatbots und smart Sales-Tools werden nicht nur für eine konsequente Kundenorientierung und eine höhere Effizienz sorgen, sondern neue Geschäftsmodelle wie digitales Servicedesign ermöglichen und somit die Wertschöpfung in Zukunft wesentlich beeinflussen.
Remote Sales, hybrider Vertrieb, Social Selling, Sales Enablement, digitale Vertriebskanäle, agile Kundenbeziehungen, Customer Experience oder auch Fachkräftemangel im Vertrieb sind einige der Herausforderungen, mit denen sich Vertriebsorganisationen in den nächsten Jahren auseinandersetzen müssen. Neue Geschäftsmodelle erfordern innovative Vertriebskonzepte und Business-Agilität in allen Unternehmensbereichen. Vertrieb ist keine Aufgabe einer Abteilung mehr, sondern muss zum Selbstverständnis und somit zur Querschnittsfunktion im gesamten Unternehmen werden. Diese entscheidet darüber, ob Vertrieb in der Zukunft bedeutet, dass der analoge oder hybride Vertrieb durch digitale Tools unterstützt wird, der digitale Vorverkauf über digitale Kanäle erfolgt und nach Kontaktaufnahme in den Vertriebsprozess überführt wird oder der komplette Vertrieb digital stattfindet, in dem ganzheitliche Plattformen intelligente Assistenten und Konfiguratoren anbieten, aus denen Kunden ihre Lösungen konfigurieren und über den integrierten eCommerce auch bestellen können.
4D-Druck
V wie 4D-Druck
Das 4D-Druckverfahren ist eine Weiterentwicklung des bisherigen →3D-Drucks, einem additiven Herstellungsverfahren, bei dem aufbauend Material hinzugefügt wird und somit Schicht für Schicht 3-dimensionale Objekte entstehen. Neu dagegen ist der 4D-Druck, bei dem nicht nur Objekte in 3 Dimensionen erzeugt werden, sondern sich anschließend noch verändern können. Durch bauphysikalische Einflüsse kommt es häufig zu Beanspruchungen von Bauteilen wie z. B. Dehnung bei Erwärmung oder Schwinden bei Abkühlung, die zu Schäden führen können. Bei der 4D-Drucktechnologie nutzt man diese Effekte, damit sich bei einem 3D-gedruckten Objekt unter dem Einfluss von sensorischen Auslösern wie z. B. externer Energiezufuhr durch Sonneneinstrahlung oder bei Kontakt mit Wasser oder durch Vibrationen oder Schall die Struktur verwandeln kann. Gegenüber dem Status quo kombiniert der 4D Druck Technologie und Design und ermöglicht intelligente Baustoffe, die sich anpassen oder reparieren können. Somit eröffnen sich ungeahnte Möglichkeiten, um programmierbare Materialtechnologien zu erfinden. Gegenüber dem 3D Druck kommt die Zeit als vierte Dimension und steht für die Fähigkeit, die Form mit der Zeit zu verändern. Wie keine andere Technologie im Bauwesen verbindet der 4D-Druck Materialwissenschaft und Werkstofftechnik, Chemie und Bioengineering mit Informatik und Ingenieurwissenschaften. Eingesetzt werden hierfür „intelligente Baustoffe“ auf Basis spezieller Hydrogele oder Polymere. Aufgrund ihrer thermomechanischen sowie weiterer Materialeigenschaften erhalten intelligente Baustoffe die Eigenschaft der Formveränderung.
Übliche 3D-Druckmaterialien sind heute noch zementbasiert und verkörpern aufgrund der hohen CO2-Emissionen, die bei der Herstellung von Zement erzeugt werden, eine alte Technologie, die nicht zukunftsorientiert ist. Die Herausforderung besteht darin, zementfreie Schäume mit hoher Festigkeit und gleichzeitig hoher Porosität zu entwickeln, um neben der Tragfähigkeit auch die Wärmedämmung, Schallschutz und Brandschutz sicherzustellen. Diese zementfreien Schäume mit der Technologie im 4D Druck-Verfahren zu kombinieren ist die Zukunft der additiven Fertigung.
4D-Innovationsprozess
V wie 4D-Innovationsprozess
Für die Beschreibung eines idealen Innovationsprozesses gibt es verschiedene Modelle. Diese sind in den letzten Jahren zunehmend an ihre Grenzen gestoßen, da sie in einer Zeit entwickelt wurden, als Unternehmen noch für sich allein innoviert haben (→Closed Innovation) oder sich auf klassische Produktinnovationen reduzierten. Insbesondere Projekte von →digitalen Innovationen verlaufen heute dynamischer und erfordern offene und agile Problemfindungs- und Lösungsentwicklungsprozesse. Der herkömmliche →KVP-Prozess oder auch das →Stage-Gate-Modell können dies nicht leisten. Echte Probleme aus Kundensicht zu identifizieren ist deutlich schwieriger als Lösungen zu entwickeln. Eine der wichtigsten Ursachen für die →Innovationsfalle ist, dass Unternehmen zu wenig Ressourcen in die Problem-Suche, -Qualifizierung, -Quantifizierung und -Priorisierung investieren und Lösungen aus der Innensicht entwickeln, die keine Probleme lösen, keinen Bedarf abdecken oder Relevanz für die Zielgruppe haben.
Der 4D-Innovationsprozess orientiert sich an der →Double Diamond Strategie und den vier Handlungsschwerpunkten Discover, Define, Develop und Deliver und ist somit ein Teil des →Design-Thinkings. Herzstück des 4D-Innovationsprozesses ist die Designmethodik des Design Council mit ihrer klaren, umfassenden und visuellen Beschreibung des Designprozesses. Die beiden Rauten stellen einen Prozess dar, bei dem ein Problem umfassender oder tiefer untersucht wird (divergentes Denken) und dann gezielt gehandelt wird (konvergentes Denken). Die erste Raute (Entdecken) hilft, das Problem zu verstehen, anstatt es einfach anzunehmen. Es geht darum, Betroffene zu Beteiligten zu machen und diese in den Prozess mit einzubeziehen. Die aus der Entdeckungsphase gewonnenen Erkenntnisse helfen, die Herausforderung konkret zu definieren. Die ersten beiden Phasen (Discover und Define) sind problemfokussiert. In der zweiten Raute geht es darum, unterschiedliche Lösungen und Antworten auf ein klar definiertes Problem zu geben, aber auch sich zusätzlich inspirieren zu lassen und nicht mit den erstbesten Lösungen zufrieden zu geben, damit kreative Ideen und Innovationen entwickelt werden. Diese werden in der vierten Phase getestet und in iterativen Schleifen immer wieder verworfen oder optimiert, bis ein funktionierender Prototyp entwickelt wurde. Die letzten beiden Phasen (Develop und Deliver) sind lösungsorientiert.
Virtual Reality (VR)
V wie Virtual Reality (VR)
Der Begriff Virtual Reality beschreibt die Wahrnehmung einer virtuellen und interaktiven Welt, die den Nutzer vollständig umgibt und auf eine möglichst natürliche Art auf dessen individuelle Aktionen reagiert. Die computergenerierte 3D-Umgebung ist nicht real, ist jedoch in ihrer Funktionalität und/oder Wirkung vorhanden und kann daher über ein oder mehrere Sinne mittels geeigneter Systeme auch →immersiv erlebt werden. Man spricht dann auch von der VR-Experience (Erlebnis). Hierfür werden meistens Head-Mounted-Displays (HMDs) eingesetzt, die besser bekannt sind unter dem umgangssprachlichen Begriff VR-Brille. Erstmals tauchte der Begriff Virtual Reality Ende der 1980-er Jahre von dem Informatiker Jaron Lanier auf, der darunter verschiedene innovative Geräteentwicklungen und Forschungsarbeiten im Bereich der 3D-Echtzeit-Computergraphik zusammenfasste.
Virtual Reality beschreibt sowohl eine Technologie als auch ein digitales Medium, das beim Nutzer die physische Realität ausblendet. Kernelemente stellen Interaktion und Immersion dar, die beim Nutzer ein starkes Gefühl der Präsenz erzeugen können und dafür geeignet sind, Virtual Reality von anderen Informations- und Kommunikationsmedien abzugrenzen. Bisher wenig erforscht sind die mentalen Aspekte von Virtual Reality, verbunden mit der Frage, welche soziokulturellen Auswirkungen die virtuelle Realität auf die menschliche Wahrnehmung hat, wenn sich diese von der physischen Realität nicht mehr oder kaum noch unterscheiden lässt.
VUCA
V wie VUCA
Der Begriff VUCA kommt ursprünglich aus dem amerikanischen Militär und wurde verwendet, um neuartige Zustände, unerwartete Ereignisse oder unbekannte Bedingungen in der Weltpolitik zu beschreiben. VUCA ist ein Akronym für Volatility, Uncertainty, Complexity und Ambiguity bzw. im Deutschen entsprechend für Volatilität (Flüchtigkeit), Unsicherheit (oder Ungewissheit), Komplexität und Ambiguität (Mehrdeutigkeit). In den 1980-er Jahren wurde VUCA erstmals in Verbindung mit Herausforderungen durch verschiedene externe Faktoren für Management und Leadership erwähnt und Theorien abgeleitet, welche Folgen sich daraus für die Unternehmensführung ergeben. Auch die aktuelle Arbeits- und Geschäftswelt lässt sich mit diesen Begriffen beschreiben und steht für ein stetig änderndes Umfeld, das zunehmend schneller, unvorhersehbarer, unsicherer und komplexer wird und somit große Herausforderungen für Unternehmen mit sich bringt. Durch Digitalisierung und Globalisierung werden Prozesse immer schneller, herkömmliche Theorien, Muster und Konzepte funktionieren nicht mehr, feste Regeln sind nicht mehr zeitgemäß, die Zukunft ist ungewiss und unzählige Faktoren müssen berücksichtigt werden. Die ohnehin vorhandene Komplexität steigt durch global vernetzte Systeme. Diese sind so eng ineinander verzahnt, dass Ursache-Wirkungs-Zusammenhänge schwer zu erklären sind und eine Rückkopplung der Systeme bzw. das Verändern von Komponenten daraus unvorhersehbare Folgen haben können. Die Wahrscheinlichkeit für Ereignisse lässt sich immer schwerer einschätzen, mittel- und langfristige Planungen sind kaum noch möglich und Unternehmen und Organisationen müssen lernen, Handlungs- und Unternehmensstrategien immer so flexibel zu entwickeln, um auf Veränderungen angemessen reagieren zu können. Situationen werden nicht nur ungewiss sondern auch zunehmend mehrdeutig, da die Verlässlichkeit der großen Daten- und Informationsflut immer unklarer wird und einen Interpretationsspielraum zulässt.
Eine Möglichkeit, um auf die Herausforderungen der VUCA-Welt reagieren zu können und die Chancen zu nutzen, die sich aus der Situation ergeben können, könnte ebenfalls VUCA heißen. Dieses Mal steht das Akronym für Vision, Understanding (Verstehen), Clarity (Klarheit) und Agilität und zielt insbesondere auf Transformation, Change-Management, Leadership und Führungsstil ab. VUCA sagt verkrusteten Hierarchien, Silo- und Bereichsdenken sowie langen Entscheidungswegen den Kampf an.
W wie Walt-Disney-Methode
W wie Walt-Disney-Methode
Die Walt-Disney-Methode geht, wie der Name bereits vermuten lässt, auf den berühmten Filmproduzenten und erfolgreichen Unternehmer Walt Disney zurück. Allerdings wurde die Methode nicht, wie vielfach fälschlich angegeben wird, von ihm entwickelt. Die Methode geht auf Robert B. Dilts zurück, der über den berühmten Filmproduzenten und Pionier der Zeichentrickfilme einmal schrieb, dass es Walt Disney in drei Rollen gab: als Träumer, Realisten und Spielverderber („…there were actually three different Walts: the dreamer, the realist, and the spoiler“). Daraus entwickelte sich später eine Kreativitätstechnik, bei der eine oder mehrere Personen ein Problem aus drei Blickwinkeln betrachten und diskutieren.
- Der Träumer (Visionär) entwickelt Ideen, ohne sich Gedanken über deren Machbarkeit und Umsetzung zu machen. Er ist subjektiv orientiert und emotional, nicht selten enthusiastisch und euphorisch. Für ihn gibt es keine Denkverbote; alles ist erlaubt. Er orientiert sich an Zukunft, Chancen und Potenzialen.
- Der Realist (Macher) dagegen nimmt einen objektiven Standpunkt ein und orientiert sich an der aktuellen Situation. Er sucht nach pragmatischen Handlungsoptionen und entwickelt Struktur-, Maßnahmen- und Aktionspläne, mit denen die notwendigen Ressourcen identifiziert werden. Außerdem untersucht er die Machbarkeit und definiert die notwendigen Voraussetzungen und Rahmenbedingungen.
- Der Kritiker (Analyst) bewertet die Ideen und Vorgaben der anderen. Er analysiert die Stärken und Schwächen und provoziert mit konstruktiver Kritik, um mögliche Fehlerquellen zu identifizieren oder um Aspekte heraus zu arbeiten, an die noch nicht gedacht wurde.
In dieser Reihenfolge wird ein Problem, eine Aufgabenstellung oder Ausgangssituation „durchgespielt“. Die Walt-Disney-Methode als Art Rollenspiel fördert Kreativität und innovative Ideen. In der praktischen Anwendung der Walt-Disney-Methode hat sich bewährt, die drei unterschiedlichen Akteure, die jeweils eine sehr markante Rolle einnehmen, durch eine vierte Rolle zu ergänzen: den neutralen Beobachter, Berater und Moderator. Der Vorteil besteht darin, dass die Problemanalyse und Ausgangssituation von einer neutralen Position eingenommen wird. Anschließend nimmt man eine der anderen Rollen und Positionen ein und argumentiert aus deren Perspektive. Der Ursprung dieses Gruppenrollenspiels ist die Kreativitätstechnik der →sechs Denkhüte von Edward de Bono. Dabei entspricht die Rolle des Neutralen in etwa dem des weißen und blauen Denkhutes. Der Kritiker kann mit dem Träger des schwarzen Hutes gleichgesetzt werden und der Träumer mit dem gelben und grünen Denkhut. Für die Rolle des Realisten gibt es keine farbliche Übereinstimmung.
W wie Wasserfall-Methode
Die Wasserfall-Methode (nicht zu verwechseln mit der →Wasserfall-Strategie) bezeichnet ein sequenzielles, lineares Vorgehensmodell, mit dem Entwicklungsprozesse in aufeinanderfolgende Projektphasen unterteilt werden. Im Gegensatz zum agilen Projektmanagement mit iterativen Phasen wird bei der Wasserfall-Methode jede Phase nur einmal durchlaufen. Die Ergebnisse der vorangegangenen Phase wird nicht in Frage gestellt und geht als feste Annahme in die folgende Phase ein. Die Entwicklung der klassischen Wasserfall-Methode geht auf den Computerwissenschaftler Winston W. Royce zurück, auch wenn er dieses Modell nicht erfunden hat. Royce setzte sich allerdings 1970 in einem kritischen Aufsatz mit linearen Vorgehensmodellen auseinander und stellte alternativ ein iterativ-inkrementelles Modell vor, bei dem jede Phase auf die vorhergehende zurückgreift und deren Ergebnisse verifiziert. In diesem Modell schlug Royce ursprünglich sieben Phasen vor, das in mehreren Durchgängen durchlaufen wird. Interessant ist, dass in dem besagten Aufsatz von Royce der Begriff Wasserfall nicht einmal vorkommt. Die Methode erlangte unter dem Begriff Wasserfallmodell erst später durch den US-Standard DoD-STD-2167 große Bekanntheit. In den Jahren danach wurde das Wasserfallmodell mehrfach modifiziert. Heute werden nur noch fünf Phasen unterteilt und die Phasen 1 bis 3 der Entwicklungsprozesse als Anforderungsanalyse in einer Projektphase zusammengefasst:
- Analyse: Planung, Anforderungsanalyse und -spezifikation
- Design: Systemdesign und -spezifikation
- Implementierung: Programmierung und Modultests
- Test: Systemintegration, System- und Integrationstests
- Betrieb: Auslieferung, Wartung, Verbesserung
Im Wasserfallmodell reihen sich die einzelnen Phasen eines Entwicklungsprozesses in einer Kaskade aneinander. Jede Phase schließt mit einem Zwischenergebnis (Meilenstein) ab. Das Modell bietet eine übersichtliche Organisationsstruktur für Innovations- und Entwicklungsprojekte, bei der die einzelnen Projektphasen klar voneinander abgegrenzt sind. Da jede Phase mit einem Meilenstein abschließt, ist der Entwicklungsprozess leicht nachvollziehbar. Der große Vorteil des Wasserfallmodells – die klare Struktur und Konzeption – ist gleichzeitig auch sein größter Nachteil. Die Achilles-Ferse des Modells besteht darin, dass evtl. Fehler in der Regel erst in der Testphase erkannt werden. Änderungen und Möglichkeiten zur Korrektur sind nur schwerlich oder mit viel Aufwand möglich. Dies wird durch die statische Abfolge der Phasen noch zusätzlich erschwert. Deshalb ist das Wasserfallmodell nicht unumstritten, da zum einen die Projektphasen z. B. in der Softwareentwicklung nur selten klar voneinander abgegrenzt sind zum anderen der lineare Ablauf des Wasserfallmodells in einem dynamischen Umfeld oft nicht den realen Gegebenheiten entspricht. Wasserfallmodelle eignen sich daher vor allem bei Projekten, bei denen sich Anforderung und Abläufe bereits in der Planungsphase präzise beschreiben lassen und bei denen davon auszugehen ist, dass sich die Annahmen während des Projektverlaufs kaum bis gar nicht ändern. Zu diesem Ergebnis kam Royce bereits in den 1970er Jahren und schlug zum linearen Wasserfallmodell drei wesentliche Erweiterungen vor: die Verifizierung nach jeder Projektphase, mindestens zwei Iterationen sowie das User-Testing. Weiterentwicklungen zum Wasserfallmodell sind z. B. das →Spiralmodell. Alternativen mit komplett entgegengesetzten Ansätzen sind vor allem die agilen Methoden wie z. B. iteratives Prototyping oder Extreme Programming.
W wie Wasserfall-Strategie
Als Wasserfall-Strategie (nicht zu verwechseln mit dem →Wasserfall-Modell) wird bezeichnet, wenn Unternehmen ausländische Absatzmärkte sukzessiv, d. h. zeitlich hintereinander, nach und nach erschließen. Die schrittweise Ausdehnung der internationalen Markterschließung, -durchdringung und -bearbeitung wird durch die Reihenfolge bestimmt, mit der in die einzelnen Ländermärkte eingetreten wird. Diese sukzessive Vorgehensweise reduziert das Risiko, da Unternehmen aus Fehlern lernen bzw. seine Auslandsstrategie optimieren kann. Gerade beim Markteintritt in fremden Kulturen bietet sich die Wasserfall-Strategie ab, um nicht nur Märkte und ihre betriebswirtschaftlichen Gesetzmäßigkeiten kennen zu lernen, sondern auch z. B. sprachliche oder kulturelle Hindernisse. Die Wasserfall-Strategie trägt des Weiteren dazu bei, dass Managementkapazitäten und/oder Unternehmensressourcen nicht überfordert werden. Ein weiterer Vorteil besteht darin, dass der benötigte Kapitalbedarf für die Expansion nicht auf einmal sondern über einen längeren Zeitraum aufgebracht werden kann. Zudem können Erträge aus bereits erfolgreich bearbeiteten Märkten investiert werden, so dass weniger Fremdkapital benötigt wird. Die Wasserfall-Strategie vermeidet, dass sich Unternehmen nicht verzetteln, was häufig bei schnell wachsenden Unternehmen beobachtet werden kann. Der Nachteil besteht darin, dass in der Zwischenzeit diese noch ausstehenden Märkte von anderen Unternehmen „erobert“ bzw. der einheimische Wettbewerb noch stärker wird.
Das Gegenstück zur Wasserfallstrategie ist die →Sprinklerstrategie, die Märkte mehr oder weniger gleichzeitig besetzt.
W wie Workshop
Ein Workshop, den man im Deutschen mit Arbeitsgruppe oder Arbeitskreis übersetzen würde, ist eine zeitlich begrenzte Veranstaltung, in der sich eine kleine Gruppe intensiv mit einem bestimmten Thema und/oder einer Aufgabenstellung auseinandersetzt und im Idealfall spezifische Lösungen erarbeitet. Man unterscheidet thematisch Workshops nach ihrer Zielsetzung: Ideenfindung und Kreativität, Problemlösung, Entscheidungsfindung, Konzeptionsentwicklung oder Konfliktlösung. Methodisch werden Workshops z. B. in →World Café, →Open Space oder auch →Six Thinking Hats unterschieden. Der gemeinsame Nenner aller Workshoparten ist die Interaktion, das „sich-selbst-einbringen“ und „Mitmachen“ sowie „Gestalten“, der Teilnehmer. Damit unterscheidet sich ein Workshop wesentlich von anderen Veranstaltungsformaten wie z. B. Vorträge, Vorlesungen, Seminare oder Tagungen, bei denen die Teilnehmer wesentlich passiver sind. Eine wesentliche Rolle für den Erfolg und die Effizienz eines Workshops nimmt der Moderator ein. Dieser verhält sich inhaltlich neutral und konzentriert sich auf die Steuerung des Prozesses und Moderation der Agenda.
Walt-Disney-Methode
W wie Walt-Disney-Methode
Die Walt-Disney-Methode geht, wie der Name bereits vermuten lässt, auf den berühmten Filmproduzenten und erfolgreichen Unternehmer Walt Disney zurück. Allerdings wurde die Methode nicht, wie vielfach fälschlich angegeben wird, von ihm entwickelt. Die Methode geht auf Robert B. Dilts zurück, der über den berühmten Filmproduzenten und Pionier der Zeichentrickfilme einmal schrieb, dass es Walt Disney in drei Rollen gab: als Träumer, Realisten und Spielverderber („…there were actually three different Walts: the dreamer, the realist, and the spoiler“). Daraus entwickelte sich später eine Kreativitätstechnik, bei der eine oder mehrere Personen ein Problem aus drei Blickwinkeln betrachten und diskutieren.
- Der Träumer (Visionär) entwickelt Ideen, ohne sich Gedanken über deren Machbarkeit und Umsetzung zu machen. Er ist subjektiv orientiert und emotional, nicht selten enthusiastisch und euphorisch. Für ihn gibt es keine Denkverbote; alles ist erlaubt. Er orientiert sich an Zukunft, Chancen und Potenzialen.
- Der Realist (Macher) dagegen nimmt einen objektiven Standpunkt ein und orientiert sich an der aktuellen Situation. Er sucht nach pragmatischen Handlungsoptionen und entwickelt Struktur-, Maßnahmen- und Aktionspläne, mit denen die notwendigen Ressourcen identifiziert werden. Außerdem untersucht er die Machbarkeit und definiert die notwendigen Voraussetzungen und Rahmenbedingungen.
- Der Kritiker (Analyst) bewertet die Ideen und Vorgaben der anderen. Er analysiert die Stärken und Schwächen und provoziert mit konstruktiver Kritik, um mögliche Fehlerquellen zu identifizieren oder um Aspekte heraus zu arbeiten, an die noch nicht gedacht wurde.
In dieser Reihenfolge wird ein Problem, eine Aufgabenstellung oder Ausgangssituation „durchgespielt“. Die Walt-Disney-Methode als Art Rollenspiel fördert Kreativität und innovative Ideen. In der praktischen Anwendung der Walt-Disney-Methode hat sich bewährt, die drei unterschiedlichen Akteure, die jeweils eine sehr markante Rolle einnehmen, durch eine vierte Rolle zu ergänzen: den neutralen Beobachter, Berater und Moderator. Der Vorteil besteht darin, dass die Problemanalyse und Ausgangssituation von einer neutralen Position eingenommen wird. Anschließend nimmt man eine der anderen Rollen und Positionen ein und argumentiert aus deren Perspektive. Der Ursprung dieses Gruppenrollenspiels ist die Kreativitätstechnik der →sechs Denkhüte von Edward de Bono. Dabei entspricht die Rolle des Neutralen in etwa dem des weißen und blauen Denkhutes. Der Kritiker kann mit dem Träger des schwarzen Hutes gleichgesetzt werden und der Träumer mit dem gelben und grünen Denkhut. Für die Rolle des Realisten gibt es keine farbliche Übereinstimmung.
Wasserfall-Methode
W wie Wasserfall-Methode
Die Wasserfall-Methode (nicht zu verwechseln mit der →Wasserfall-Strategie) bezeichnet ein sequenzielles, lineares Vorgehensmodell, mit dem Entwicklungsprozesse in aufeinanderfolgende Projektphasen unterteilt werden. Im Gegensatz zum agilen Projektmanagement mit iterativen Phasen wird bei der Wasserfall-Methode jede Phase nur einmal durchlaufen. Die Ergebnisse der vorangegangenen Phase wird nicht in Frage gestellt und geht als feste Annahme in die folgende Phase ein. Die Entwicklung der klassischen Wasserfall-Methode geht auf den Computerwissenschaftler Winston W. Royce zurück, auch wenn er dieses Modell nicht erfunden hat. Royce setzte sich allerdings 1970 in einem kritischen Aufsatz mit linearen Vorgehensmodellen auseinander und stellte alternativ ein iterativ-inkrementelles Modell vor, bei dem jede Phase auf die vorhergehende zurückgreift und deren Ergebnisse verifiziert. In diesem Modell schlug Royce ursprünglich sieben Phasen vor, das in mehreren Durchgängen durchlaufen wird. Interessant ist, dass in dem besagten Aufsatz von Royce der Begriff Wasserfall nicht einmal vorkommt. Die Methode erlangte unter dem Begriff Wasserfallmodell erst später durch den US-Standard DoD-STD-2167 große Bekanntheit. In den Jahren danach wurde das Wasserfallmodell mehrfach modifiziert. Heute werden nur noch fünf Phasen unterteilt und die Phasen 1 bis 3 der Entwicklungsprozesse als Anforderungsanalyse in einer Projektphase zusammengefasst:
- Analyse: Planung, Anforderungsanalyse und -spezifikation
- Design: Systemdesign und -spezifikation
- Implementierung: Programmierung und Modultests
- Test: Systemintegration, System- und Integrationstests
- Betrieb: Auslieferung, Wartung, Verbesserung
Im Wasserfallmodell reihen sich die einzelnen Phasen eines Entwicklungsprozesses in einer Kaskade aneinander. Jede Phase schließt mit einem Zwischenergebnis (Meilenstein) ab. Das Modell bietet eine übersichtliche Organisationsstruktur für Innovations- und Entwicklungsprojekte, bei der die einzelnen Projektphasen klar voneinander abgegrenzt sind. Da jede Phase mit einem Meilenstein abschließt, ist der Entwicklungsprozess leicht nachvollziehbar. Der große Vorteil des Wasserfallmodells – die klare Struktur und Konzeption – ist gleichzeitig auch sein größter Nachteil. Die Achilles-Ferse des Modells besteht darin, dass evtl. Fehler in der Regel erst in der Testphase erkannt werden. Änderungen und Möglichkeiten zur Korrektur sind nur schwerlich oder mit viel Aufwand möglich. Dies wird durch die statische Abfolge der Phasen noch zusätzlich erschwert. Deshalb ist das Wasserfallmodell nicht unumstritten, da zum einen die Projektphasen z. B. in der Softwareentwicklung nur selten klar voneinander abgegrenzt sind zum anderen der lineare Ablauf des Wasserfallmodells in einem dynamischen Umfeld oft nicht den realen Gegebenheiten entspricht. Wasserfallmodelle eignen sich daher vor allem bei Projekten, bei denen sich Anforderung und Abläufe bereits in der Planungsphase präzise beschreiben lassen und bei denen davon auszugehen ist, dass sich die Annahmen während des Projektverlaufs kaum bis gar nicht ändern. Zu diesem Ergebnis kam Royce bereits in den 1970er Jahren und schlug zum linearen Wasserfallmodell drei wesentliche Erweiterungen vor: die Verifizierung nach jeder Projektphase, mindestens zwei Iterationen sowie das User-Testing. Weiterentwicklungen zum Wasserfallmodell sind z. B. das →Spiralmodell. Alternativen mit komplett entgegengesetzten Ansätzen sind vor allem die agilen Methoden wie z. B. iteratives Prototyping oder Extreme Programming.
Wasserfall-Strategie
W wie Wasserfall-Strategie
Als Wasserfall-Strategie (nicht zu verwechseln mit dem →Wasserfall-Modell) wird bezeichnet, wenn Unternehmen ausländische Absatzmärkte sukzessiv, d. h. zeitlich hintereinander, nach und nach erschließen. Die schrittweise Ausdehnung der internationalen Markterschließung, -durchdringung und -bearbeitung wird durch die Reihenfolge bestimmt, mit der in die einzelnen Ländermärkte eingetreten wird. Diese sukzessive Vorgehensweise reduziert das Risiko, da Unternehmen aus Fehlern lernen bzw. seine Auslandsstrategie optimieren kann. Gerade beim Markteintritt in fremden Kulturen bietet sich die Wasserfall-Strategie ab, um nicht nur Märkte und ihre betriebswirtschaftlichen Gesetzmäßigkeiten kennen zu lernen, sondern auch z. B. sprachliche oder kulturelle Hindernisse. Die Wasserfall-Strategie trägt des Weiteren dazu bei, dass Managementkapazitäten und/oder Unternehmensressourcen nicht überfordert werden. Ein weiterer Vorteil besteht darin, dass der benötigte Kapitalbedarf für die Expansion nicht auf einmal sondern über einen längeren Zeitraum aufgebracht werden kann. Zudem können Erträge aus bereits erfolgreich bearbeiteten Märkten investiert werden, so dass weniger Fremdkapital benötigt wird. Die Wasserfall-Strategie vermeidet, dass sich Unternehmen nicht verzetteln, was häufig bei schnell wachsenden Unternehmen beobachtet werden kann. Der Nachteil besteht darin, dass in der Zwischenzeit diese noch ausstehenden Märkte von anderen Unternehmen „erobert“ bzw. der einheimische Wettbewerb noch stärker wird.
Das Gegenstück zur Wasserfallstrategie ist die →Sprinklerstrategie, die Märkte mehr oder weniger gleichzeitig besetzt.
Workshop
W wie Workshop
Ein Workshop, den man im Deutschen mit Arbeitsgruppe oder Arbeitskreis übersetzen würde, ist eine zeitlich begrenzte Veranstaltung, in der sich eine kleine Gruppe intensiv mit einem bestimmten Thema und/oder einer Aufgabenstellung auseinandersetzt und im Idealfall spezifische Lösungen erarbeitet. Man unterscheidet thematisch Workshops nach ihrer Zielsetzung: Ideenfindung und Kreativität, Problemlösung, Entscheidungsfindung, Konzeptionsentwicklung oder Konfliktlösung. Methodisch werden Workshops z. B. in →World Café, →Open Space oder auch →Six Thinking Hats unterschieden. Der gemeinsame Nenner aller Workshoparten ist die Interaktion, das „sich-selbst-einbringen“ und „Mitmachen“ sowie „Gestalten“, der Teilnehmer. Damit unterscheidet sich ein Workshop wesentlich von anderen Veranstaltungsformaten wie z. B. Vorträge, Vorlesungen, Seminare oder Tagungen, bei denen die Teilnehmer wesentlich passiver sind. Eine wesentliche Rolle für den Erfolg und die Effizienz eines Workshops nimmt der Moderator ein. Dieser verhält sich inhaltlich neutral und konzentriert sich auf die Steuerung des Prozesses und Moderation der Agenda.
X wie XaaS
X wie XaaS
Die Abkürzung „XaaS“ steht für „Anything-as-a-Service“. Die Grundlage hinter XaaS ist →Cloud-Computing, also die Bereitstellung von Hardware- bzw. Software-Ressourcen über die Cloud. Anbieter von Anything-as-a-Service-Angeboten werden häufig als Systemhaus bezeichnet, da sie alle IT-Dienstleistungen quasi unter einem Dach anbieten. Vorteile sind eine höhere Flexibilität, eine stärkere Spezialisierung sowie Kostenreduzierung, da Unternehmen keine eigenen Infrastrukturen aufbauen müssen, sondern diese als Service beziehen können. Synonym zu XaaS wird die Abkürzung „EaaS“ verwendet, die für „Everything-as-a-Service“ steht.
XaaS
X wie XaaS
Die Abkürzung „XaaS“ steht für „Anything-as-a-Service“. Die Grundlage hinter XaaS ist →Cloud-Computing, also die Bereitstellung von Hardware- bzw. Software-Ressourcen über die Cloud. Anbieter von Anything-as-a-Service-Angeboten werden häufig als Systemhaus bezeichnet, da sie alle IT-Dienstleistungen quasi unter einem Dach anbieten. Vorteile sind eine höhere Flexibilität, eine stärkere Spezialisierung sowie Kostenreduzierung, da Unternehmen keine eigenen Infrastrukturen aufbauen müssen, sondern diese als Service beziehen können. Synonym zu XaaS wird die Abkürzung „EaaS“ verwendet, die für „Everything-as-a-Service“ steht.
Z wie ZEBRA-Prinzip (oder Effekt)
Z wie ZEBRA-Prinzip (oder Effekt)
ZEBRA ist ein Akronym und steht für Zero Evidence But Really Arrogant (= Null Beweise, aber wirklich arrogant). Während →HiPPOs über einen autoritären Führungsstil Entscheidungen erzwingen, setzt das ZEBRA auf pure Arroganz. Das Zebra ist in der Regel jemand, der eine hohe Expertise vorgibt, aber keine Fakten vorlegen kann, die seine „Expertise“ untermauern. Während man den HiPPO in seiner Entscheidungsfindung noch durch Fakten umstimmen kann, ist das ZEBRA für andere Meinungen unzugänglich und besteht auf seinen Standpunkt. Der Höhepunkt derartiger Auseinandersetzungen in Meetings endet dann nicht selten in Aussagen wie: „Der Kunde hat keine Ahnung.“ Soziologen nennen dies: Das ZEBRA regiert durch die Tyrannei des Fachwissens.
Z wie Zeitorientierte Innovationsstrategien
Zeit ist im Innovationsmanagement eine wichtige Kenngröße. Es geht hierbei nicht nur um die Einhaltung von Terminen im Innovationsprozess oder den zeitlichen Vorsprung gegenüber Wettbewerbern, sondern auch um den richtigen Zeitpunkt, um eine Innovation am Markt zu platzieren. Dieser kann ein erfolgskritischer Faktor bei der Implementierung von Innovationen sein. Daher gehört es u. a. zu den Aufgaben im strategischen Innovationsmanagements, den idealen Zeitpunkt für einen Markteinstieg zu bestimmen. Hierbei muss es nicht zwangsläufig von Vorteil sein, als Erster am Markt (Pionier) zu sein, auch wenn viele Argumente für den →First Mover Advantage sprechen. Alternative Strategien im →Innovationstiming sind z. B. Late Mover. Hierbei wird unterschieden, ob die nachfolgende Unternehmen den First Mover kopieren oder imitieren. Beide strategischen Optionen können ebenfalls sinnvoll sein und einen →First Mover Disadvantage oder →Late Mover Advantage mit sich bringen. Schließlich wurde der neu zu besetzende Markt durch den First Mover bereits aufbereitet und erste Risiken und Hürden genommen.
Z wie 10 x Thinking
Passend zum Begriff der →Disruption hat Google den Begriff 10 x Thinking geprägt. Dieser drückt aus, dass die Veränderungen durch disruptive Produkte, Dienstleistungen und/oder Geschäftsmodelle nicht zehn Prozent ausmachen, sondern eher um den Faktor 10. Auch der Begriff Thinking10 ist gebräuchlich und steht für die Potenzierung disruptiver oder radikaler Innovationen.
Z wie zufällige Innovatoren
Zufällige Innovatoren ist ein Begriff aus den innovativen Milieus. Die Aktivitäten von Innovationsprojekten sind relativ unstrukturiert; von einem Innovationsmanagement kann in den meisten Fällen nicht gesprochen werden. Es fehlt an einer klaren Innovationsstrategie und einer auf Innovation ausgerichteten Unternehmensstruktur. Typisch für dieses Milieu ist eine gewisse Offenheit für neue Technologien. Diese verursacht in den meisten Fällen eher zufällige Innovationen. Man spricht auch von den so genannten „Trial-and-Error“-Innovationen oder ugs. von Zufallstreffern. Weiterhin zeichnet zufällige Innovatoren aus, dass sie sich in den meisten Fällen in einem starken Wettbewerbsumfeld befinden. Produkte und Dienstleistungen sind relativ schnell veraltet. Es gibt eine überdurchschnittlich starke Bedrohung der Marktposition durch den Markteintritt neuer Wettbewerber, häufig aus dem Ausland. Etwa ein Achtel der Unternehmen können diesem Milieu zugeordnet werden. Die Branchenschwerpunkte liegen in den Bereichen Bau, Logistik und Großhandel, dabei handelt es sich vor allem um kleine und mittlere Unternehmen (KMU).
→ innovative Milieus
Z wie Zukunftsforschung
Eines vorab: Die Zukunft lässt sich nicht vorhersagen. In der Zukunftsforschung oder Futurologie werden vielmehr fundierte Annahmen getroffen und Wahrscheinlichkeiten formuliert, aus denen Prognosen, Szenarien und Mechanismen abgeleitet werden können. Diese werden durch gezielte Forschungsmethoden verifiziert, so dass daraus ein educated guess (begründete Vermutung) formuliert werden kann, wie die Zukunft aussehen könnte. Zukunftsforschung ist somit die systematische und wissenschaftliche Untersuchung von möglichen Entwicklungen in der Zukunft auf technischem, wirtschaftlichem und sozialem Gebiet sowie deren Voraussetzung in der Vergangenheit – und somit der Gegenwart. Hierzu werden u. a. qualitative und quantitative Methoden, Verfahren und Techniken aus der Prognostik angewendet. Um sich von Science-Fiction, Utopie oder Wahrsagern abzugrenzen, setzt die Zukunftsforschung auf wissenschaftlich-fundierte Qualitätskriterien wie Relevanz, logische Konsistenz, Überprüfbarkeit, Reproduzierbarkeit, Transparenz, Angaben über Reichweite und Explikation der Prämissen und der Rahmenbedingungen. Außerdem berücksichtigt die Zukunftsforschung das Spektrum der Veränderung. Dies bedeutet, dass sich die Zukunft nicht linear aus dem Heute entwickelt. Das Spektrum beginnt mit dem konstanten Bereich über die Veränderungen mit steigender Veränderungsdynamik bis hin zum Chaos.
Die Trendforschung ist nur ein kleiner Teil in diesem Spektrum. Im Gegensatz zur Zukunftsforschung werden bei der Trendforschung bereits bestehende oder sich andeutende Trends untersucht. Hierfür wird auf Werkzeuge wie z. B. Patente, Google Trends oder Umfragen zurückgegriffen. Vereinfacht kann man festhalten, dass die Marktforschung die Vergangenheit analysiert, die Trendforschung die Gegenwart mit einem Horizont der nächsten 5 Jahre beobachtet und sich die Zukunftsforschung mittels Extrapolation mit der Zukunft in den nächsten 10 bis 25 Jahren auseinandersetzt. Sie „bestimmt“ diese nicht und „sagt“ diese auch nicht „voraus“.
Z wie Zukunftswerkstatt
Die Zukunftswerkstatt ist eine von Zukunftsforschern entwickelte Methode, um Phantasien anzuregen, mit denen neue Ideen entstehen und Lösungen für bestehende Probleme entwickelt werden. Die Aufgabenstellung kann ganz unterschiedlich sein, von der Entdeckung neuer Perspektiven und der Gewinnung neuer Sichtweisen, der Selbstreflexion von Erfahrungen, dem Abbau von Ängsten oder der Überwindung von Widerständen im Zusammenhang mit der Zukunft oder Unsicherheit durch Veränderung bis hin um die Vorstellungskraft über die eigene Zukunft zu entwickeln. Das Anwendungsspektrum reicht u. a. von der Lernwerkstatt, Problemlösungs- und Ideenfindungswerkstatt, von der Strategiewerkstatt bis hin zur Kommunikationswerkstatt. Die Methode umfasst drei Hauptphasen sowie eine Vorphase und eine Nachbereitung. In der Vorphase geht es um die „Gründung“ der Gruppe und um die Schaffung einer guten Atmosphäre. Außerdem geht es um die Festlegung des Themas sowie der methodischen und zeitlichen Planung. In der ersten Phase (Kritikphase) dürfen die Teilnehmer ihre Beschwerde vortragen und somit ihre Wut, ihren Unmut, ihre Kritik sowie negative Erfahrungen oder Enttäuschungen zum gewählten Thema äußern. Wichtig ist, dass alle Teilnehmer spüren, dass diese Phase frei von Zwängen und möglichen Repressalien ist. In der Kritikphase geht es weniger um eine Analyse der Probleme, sondern um eine wertfreie Bestandsaufnahme. Dieses Brainstorming wird anschließend nach Themen geordnet und ist Voraussetzung für kreatives, phantasievolles und konstruktives Arbeiten in den Phasen 2 und 3. In der zweiten Phase (Fantasiephase) ist die Kreativität jedes einzelnen gefragt und werden ergebnisoffene Wünsche ohne Einschränkungen formuliert. Der Fokus liegt auf Anfangssätze wie z. B.: „Es wäre schön, wenn …“. Sätze wie „Das geht sowieso nicht“ oder „Das ist doch unmöglich.“ sollten unbedingt vermieden werden. Hier darf und soll fantasiert werden. In der dritten Phase (Realisierungsphase) geht es um die Verwirklichung bzw. praktische Umsetzung. Durch eine gezielte Moderation wird abgeschätzt, was realisierbar ist und realistisch umgesetzt werden kann. Je nach Aufgabenstellung und Unternehmenskultur bietet sich hierfür ein interner oder externer Moderator an. In der Nachbereitungsphase werden dann die nächsten Schritte strukturiert und priorisiert.
Eine wichtige Rolle nimmt der Moderator ein, der nicht nur durch den Workshop führt, sondern auch die Themen strukturiert, verdichtet und priorisiert. Wichtig sind definierte Spielregeln, die zum Gelingen von Zukunftswerkstätten beitragen. Hierzu gehört, dass alle Beiträge gleichwertig behandelt werden, unabhängig von Hierarchien und Rollen. Verbale und non-verbale Killerphrasen und Buzzwords sind zu vermeiden, gleiches gilt für unsachliche Beiträge und persönliche Angriffe und Schuldzuweisungen. Abstrakte Äußerungen sind zu vermeiden, dafür konkrete Beispiele genannt werden. Jede Idee wird aufgegriffen und nicht bewertet, sondern weiter entwickelt. Möglichst viele Wortmeldungen werden visualisiert.
Der Begriff Zukunftswerkstatt wird darüber hinaus auch synonym für →Innovation Lab oder →Kreativwerkstatt verwendet.
Z wie Zwicky Box
→morphologische Kasten
Z wie 12 Grundsätze erfolgreicher Innovationen
So unterschiedlich Art und Grad der verschiedenen Innovationen sind, so unterschiedlich sind auch die Methoden und Ansätze für deren Umsetzung. Erfolgreiche Innovationen lassen sich auf 12 spezifische Grundsätze zurückführen:
- Innovationen sind kein unternehmensbezogener Selbstzweck, sondern müssen rechtzeitig und regelmäßig mit aktuellen, zukünftigen oder potenziellen Nutzern validiert werden.
- Das Leistungsversprechen einer Innovation muss nicht „anders“ sein, sondern „besser“.
- Kunden haben von Ideen keinen Mehrwert, sondern benötigen konkrete Lösungen auf spezifische Probleme, mehrwertbasierte Angebote, um wettbewerbsfähig und erfolgreich zu bleiben oder die Schaffung neuer Möglichkeiten für Wachstum.
- Eine unternehmensspezifische Innovationsstrategie muss wesentlicher Bestandteil der Unternehmensstrategie sein. Einen Markt- oder Innovationsführer zu kopieren bringt in der Regel nichts.
- Der Fokus bei mehreren Innovationen muss sich auf zukunftsorientierte Suchfelder konzentrieren. Diese müssen aus der Metaebene operationalisiert werden.
- Innovation als Unternehmens-DNA muss im Mindset der Führungskräfte verankert und von allen Mitarbeitern gelebt werden.
- Innovationen müssen zum Selbstverständnis der gesamten Organisation werden und dürfen nicht Aufgabe einzelner Fachabteilungen sein.
- Konsequente Kundenorientierung darf nicht dem Vertrieb allein überlassen werden. Kundenorientierung darf nicht mit Vertriebsorientierung verwechselt werden.
- Zur Umsetzung muss eine innovationsfreundliche Unternehmenskultur vorliegen.
- Für das zukünftige Geschäftsmodell und/oder Innovationen muss der methodische Ansatz geeignet sein.
- Für die Operationalisierung der Innovation muss die Expertise der Mitarbeiter sowie der geeignete Mix an Arbeitsweisen und Tools vorliegen.
- Innovationen funktionieren nicht nach dem Gesetz der Statistik. Soll heißen: mehr Ideen produzieren nicht automatisch mehr Innovationen. Qualität statt Quantität ist das Motto erfolgreicher Innovationen.
ZEBRA-Prinzip (oder Effekt)
Z wie ZEBRA-Prinzip (oder Effekt)
ZEBRA ist ein Akronym und steht für Zero Evidence But Really Arrogant (= Null Beweise, aber wirklich arrogant). Während →HiPPOs über einen autoritären Führungsstil Entscheidungen erzwingen, setzt das ZEBRA auf pure Arroganz. Das Zebra ist in der Regel jemand, der eine hohe Expertise vorgibt, aber keine Fakten vorlegen kann, die seine „Expertise“ untermauern. Während man den HiPPO in seiner Entscheidungsfindung noch durch Fakten umstimmen kann, ist das ZEBRA für andere Meinungen unzugänglich und besteht auf seinen Standpunkt. Der Höhepunkt derartiger Auseinandersetzungen in Meetings endet dann nicht selten in Aussagen wie: „Der Kunde hat keine Ahnung.“ Soziologen nennen dies: Das ZEBRA regiert durch die Tyrannei des Fachwissens.
Zeitorientierte Innovationsstrategien
Z wie Zeitorientierte Innovationsstrategien
Zeit ist im Innovationsmanagement eine wichtige Kenngröße. Es geht hierbei nicht nur um die Einhaltung von Terminen im Innovationsprozess oder den zeitlichen Vorsprung gegenüber Wettbewerbern, sondern auch um den richtigen Zeitpunkt, um eine Innovation am Markt zu platzieren. Dieser kann ein erfolgskritischer Faktor bei der Implementierung von Innovationen sein. Daher gehört es u. a. zu den Aufgaben im strategischen Innovationsmanagements, den idealen Zeitpunkt für einen Markteinstieg zu bestimmen. Hierbei muss es nicht zwangsläufig von Vorteil sein, als Erster am Markt (Pionier) zu sein, auch wenn viele Argumente für den →First Mover Advantage sprechen. Alternative Strategien im →Innovationstiming sind z. B. Late Mover. Hierbei wird unterschieden, ob die nachfolgende Unternehmen den First Mover kopieren oder imitieren. Beide strategischen Optionen können ebenfalls sinnvoll sein und einen →First Mover Disadvantage oder →Late Mover Advantage mit sich bringen. Schließlich wurde der neu zu besetzende Markt durch den First Mover bereits aufbereitet und erste Risiken und Hürden genommen.
10 x Thinking
Z wie 10 x Thinking
Passend zum Begriff der →Disruption hat Google den Begriff 10 x Thinking geprägt. Dieser drückt aus, dass die Veränderungen durch disruptive Produkte, Dienstleistungen und/oder Geschäftsmodelle nicht zehn Prozent ausmachen, sondern eher um den Faktor 10. Auch der Begriff Thinking10 ist gebräuchlich und steht für die Potenzierung disruptiver oder radikaler Innovationen.
zufällige Innovatoren
Z wie zufällige Innovatoren
Zufällige Innovatoren ist ein Begriff aus den innovativen Milieus. Die Aktivitäten von Innovationsprojekten sind relativ unstrukturiert; von einem Innovationsmanagement kann in den meisten Fällen nicht gesprochen werden. Es fehlt an einer klaren Innovationsstrategie und einer auf Innovation ausgerichteten Unternehmensstruktur. Typisch für dieses Milieu ist eine gewisse Offenheit für neue Technologien. Diese verursacht in den meisten Fällen eher zufällige Innovationen. Man spricht auch von den so genannten „Trial-and-Error“-Innovationen oder ugs. von Zufallstreffern. Weiterhin zeichnet zufällige Innovatoren aus, dass sie sich in den meisten Fällen in einem starken Wettbewerbsumfeld befinden. Produkte und Dienstleistungen sind relativ schnell veraltet. Es gibt eine überdurchschnittlich starke Bedrohung der Marktposition durch den Markteintritt neuer Wettbewerber, häufig aus dem Ausland. Etwa ein Achtel der Unternehmen können diesem Milieu zugeordnet werden. Die Branchenschwerpunkte liegen in den Bereichen Bau, Logistik und Großhandel, dabei handelt es sich vor allem um kleine und mittlere Unternehmen (KMU).
→ innovative Milieus
Zukunftsforschung
Z wie Zukunftsforschung
Eines vorab: Die Zukunft lässt sich nicht vorhersagen. In der Zukunftsforschung oder Futurologie werden vielmehr fundierte Annahmen getroffen und Wahrscheinlichkeiten formuliert, aus denen Prognosen, Szenarien und Mechanismen abgeleitet werden können. Diese werden durch gezielte Forschungsmethoden verifiziert, so dass daraus ein educated guess (begründete Vermutung) formuliert werden kann, wie die Zukunft aussehen könnte. Zukunftsforschung ist somit die systematische und wissenschaftliche Untersuchung von möglichen Entwicklungen in der Zukunft auf technischem, wirtschaftlichem und sozialem Gebiet sowie deren Voraussetzung in der Vergangenheit – und somit der Gegenwart. Hierzu werden u. a. qualitative und quantitative Methoden, Verfahren und Techniken aus der Prognostik angewendet. Um sich von Science-Fiction, Utopie oder Wahrsagern abzugrenzen, setzt die Zukunftsforschung auf wissenschaftlich-fundierte Qualitätskriterien wie Relevanz, logische Konsistenz, Überprüfbarkeit, Reproduzierbarkeit, Transparenz, Angaben über Reichweite und Explikation der Prämissen und der Rahmenbedingungen. Außerdem berücksichtigt die Zukunftsforschung das Spektrum der Veränderung. Dies bedeutet, dass sich die Zukunft nicht linear aus dem Heute entwickelt. Das Spektrum beginnt mit dem konstanten Bereich über die Veränderungen mit steigender Veränderungsdynamik bis hin zum Chaos.
Die Trendforschung ist nur ein kleiner Teil in diesem Spektrum. Im Gegensatz zur Zukunftsforschung werden bei der Trendforschung bereits bestehende oder sich andeutende Trends untersucht. Hierfür wird auf Werkzeuge wie z. B. Patente, Google Trends oder Umfragen zurückgegriffen. Vereinfacht kann man festhalten, dass die Marktforschung die Vergangenheit analysiert, die Trendforschung die Gegenwart mit einem Horizont der nächsten 5 Jahre beobachtet und sich die Zukunftsforschung mittels Extrapolation mit der Zukunft in den nächsten 10 bis 25 Jahren auseinandersetzt. Sie „bestimmt“ diese nicht und „sagt“ diese auch nicht „voraus“.
Zukunftswerkstatt
Z wie Zukunftswerkstatt
Die Zukunftswerkstatt ist eine von Zukunftsforschern entwickelte Methode, um Phantasien anzuregen, mit denen neue Ideen entstehen und Lösungen für bestehende Probleme entwickelt werden. Die Aufgabenstellung kann ganz unterschiedlich sein, von der Entdeckung neuer Perspektiven und der Gewinnung neuer Sichtweisen, der Selbstreflexion von Erfahrungen, dem Abbau von Ängsten oder der Überwindung von Widerständen im Zusammenhang mit der Zukunft oder Unsicherheit durch Veränderung bis hin um die Vorstellungskraft über die eigene Zukunft zu entwickeln. Das Anwendungsspektrum reicht u. a. von der Lernwerkstatt, Problemlösungs- und Ideenfindungswerkstatt, von der Strategiewerkstatt bis hin zur Kommunikationswerkstatt. Die Methode umfasst drei Hauptphasen sowie eine Vorphase und eine Nachbereitung. In der Vorphase geht es um die „Gründung“ der Gruppe und um die Schaffung einer guten Atmosphäre. Außerdem geht es um die Festlegung des Themas sowie der methodischen und zeitlichen Planung. In der ersten Phase (Kritikphase) dürfen die Teilnehmer ihre Beschwerde vortragen und somit ihre Wut, ihren Unmut, ihre Kritik sowie negative Erfahrungen oder Enttäuschungen zum gewählten Thema äußern. Wichtig ist, dass alle Teilnehmer spüren, dass diese Phase frei von Zwängen und möglichen Repressalien ist. In der Kritikphase geht es weniger um eine Analyse der Probleme, sondern um eine wertfreie Bestandsaufnahme. Dieses Brainstorming wird anschließend nach Themen geordnet und ist Voraussetzung für kreatives, phantasievolles und konstruktives Arbeiten in den Phasen 2 und 3. In der zweiten Phase (Fantasiephase) ist die Kreativität jedes einzelnen gefragt und werden ergebnisoffene Wünsche ohne Einschränkungen formuliert. Der Fokus liegt auf Anfangssätze wie z. B.: „Es wäre schön, wenn …“. Sätze wie „Das geht sowieso nicht“ oder „Das ist doch unmöglich.“ sollten unbedingt vermieden werden. Hier darf und soll fantasiert werden. In der dritten Phase (Realisierungsphase) geht es um die Verwirklichung bzw. praktische Umsetzung. Durch eine gezielte Moderation wird abgeschätzt, was realisierbar ist und realistisch umgesetzt werden kann. Je nach Aufgabenstellung und Unternehmenskultur bietet sich hierfür ein interner oder externer Moderator an. In der Nachbereitungsphase werden dann die nächsten Schritte strukturiert und priorisiert.
Eine wichtige Rolle nimmt der Moderator ein, der nicht nur durch den Workshop führt, sondern auch die Themen strukturiert, verdichtet und priorisiert. Wichtig sind definierte Spielregeln, die zum Gelingen von Zukunftswerkstätten beitragen. Hierzu gehört, dass alle Beiträge gleichwertig behandelt werden, unabhängig von Hierarchien und Rollen. Verbale und non-verbale Killerphrasen und Buzzwords sind zu vermeiden, gleiches gilt für unsachliche Beiträge und persönliche Angriffe und Schuldzuweisungen. Abstrakte Äußerungen sind zu vermeiden, dafür konkrete Beispiele genannt werden. Jede Idee wird aufgegriffen und nicht bewertet, sondern weiter entwickelt. Möglichst viele Wortmeldungen werden visualisiert.
Der Begriff Zukunftswerkstatt wird darüber hinaus auch synonym für →Innovation Lab oder →Kreativwerkstatt verwendet.
Zwicky Box
Z wie Zwicky Box
→morphologische Kasten
12 Grundsätze erfolgreicher Innovationen
Z wie 12 Grundsätze erfolgreicher Innovationen
So unterschiedlich Art und Grad der verschiedenen Innovationen sind, so unterschiedlich sind auch die Methoden und Ansätze für deren Umsetzung. Erfolgreiche Innovationen lassen sich auf 12 spezifische Grundsätze zurückführen:
- Innovationen sind kein unternehmensbezogener Selbstzweck, sondern müssen rechtzeitig und regelmäßig mit aktuellen, zukünftigen oder potenziellen Nutzern validiert werden.
- Das Leistungsversprechen einer Innovation muss nicht „anders“ sein, sondern „besser“.
- Kunden haben von Ideen keinen Mehrwert, sondern benötigen konkrete Lösungen auf spezifische Probleme, mehrwertbasierte Angebote, um wettbewerbsfähig und erfolgreich zu bleiben oder die Schaffung neuer Möglichkeiten für Wachstum.
- Eine unternehmensspezifische Innovationsstrategie muss wesentlicher Bestandteil der Unternehmensstrategie sein. Einen Markt- oder Innovationsführer zu kopieren bringt in der Regel nichts.
- Der Fokus bei mehreren Innovationen muss sich auf zukunftsorientierte Suchfelder konzentrieren. Diese müssen aus der Metaebene operationalisiert werden.
- Innovation als Unternehmens-DNA muss im Mindset der Führungskräfte verankert und von allen Mitarbeitern gelebt werden.
- Innovationen müssen zum Selbstverständnis der gesamten Organisation werden und dürfen nicht Aufgabe einzelner Fachabteilungen sein.
- Konsequente Kundenorientierung darf nicht dem Vertrieb allein überlassen werden. Kundenorientierung darf nicht mit Vertriebsorientierung verwechselt werden.
- Zur Umsetzung muss eine innovationsfreundliche Unternehmenskultur vorliegen.
- Für das zukünftige Geschäftsmodell und/oder Innovationen muss der methodische Ansatz geeignet sein.
- Für die Operationalisierung der Innovation muss die Expertise der Mitarbeiter sowie der geeignete Mix an Arbeitsweisen und Tools vorliegen.
- Innovationen funktionieren nicht nach dem Gesetz der Statistik. Soll heißen: mehr Ideen produzieren nicht automatisch mehr Innovationen. Qualität statt Quantität ist das Motto erfolgreicher Innovationen.