Wie wird man zur Data-Driven Company?

Wie wird man zur Data-Driven Company?

Datengesteuerte Unternehmen nutzen ihre Daten, um neue Chancen und Möglichkeiten für ihr Geschäft zu erschließen. Wir zeigen Ihnen, wie Sie Ihr Unternehmen zur Data-Driven Company weiterentwickeln können.

Big Data ist vielfältig und kann große Vorteile für Unternehmen bedeuten. Bessere Informationen führen zu besseren Entscheidungen und optimalen Ergebnissen. Welchen Wert Unternehmen aus Big Data ziehen, kommt darauf an, ob es ihnen gelingt, eine solide digitale Grundlage zu schaffen und letztlich zu datengesteuerten Organisationen zu werden.

Glen Hopper, CFO von Sandline Global und Autor von Deep Finance, hat die letzten zwei Jahrzehnte damit verbracht, Startups bei der Vorbereitung auf eine Finanzierung oder Übernahme zu unterstützen. Aus dieser Erfahrung heraus hat er sechs Schritte herausgearbeitet, die Unternehmen bei ihrer digitalen Transformation helfen sollen.

In 6 Schritten zur Data-Driven Company

Step 1️⃣

Führen Sie Systeme zur Datenerfassung und – verarbeitung ein. Stellen Sie entsprechend Qualifizierte MitarbeiterInnen ein bzw. bilden Sie Ihre vorhandene Talente weiter. (Investition in Systeme und Humanressourcen)

Step 2️⃣

Stellen Sie sicher, dass Sie alle verfügbaren Daten aus Ihrem Unternehmen und über Ihr Unternehmen sammeln und zusammenfassen. Räumen Sie den MitarbeiterInnen, die diese Wissensbasis aufbauen sollen, eine ausreichende Priorität ein.

Step 3️⃣

Machen Sie eine Bestandsaufnahme Ihrer deskriptiven Statistiken. Wo korrelieren die statistischen Kategorien? Welche Trends erkennen Sie und wie können Sie diese mit der gesamten Belegschaft teilen? Verdeutlichen Sie sich, was Sie bereits wissen.

Step 4️⃣

Was bedeutet Ihr in Schritt 3 erlangtes Wissen? Gehen Sie zur präskriptiven Analyse über und nutzen Sie Ihre gesammelten Daten, um Vorhersagen zu treffen und Empfehlungen für die Zukunft zu machen. Erst in diesem Schritt wird Information zu Wissen.

Step 5️⃣

Verschiedene Teammitglieder sehen dieselben Daten möglicherweise auf unterschiedliche Weise. Ein transparenter Ansatz verhindert ungesunden Wettbewerb und fördert die Zusammenarbeit sowie die Verantwortlichkeit. Durch das "Crowdsourcing" der Entscheidungsbefugnis kann Ihr Unternehmen insgesamt von besseren Entscheidungen profitieren.

Step 6️⃣

Effektive Analysen sind nur dann möglich, wenn jeder im Unternehmen den datengesteuerten Ansatz akzeptiert hat. Jedes Teammitglied muss also darauf vertrauen können, dass die Daten korrekt sind und ein vollständiges Bild der Unternehmenssituation vermitteln. Hierfür sind Prüfmechanismen essenziell, die kontinuierlich sicherstellen, dass die gesammelten Informationen "echt" sind.

Conclusion

Auf dem Weg zur Data-Driven Company ist es also von entscheidender Bedeutung, Prozesse und Teams aufzubauen, die relevante Daten sammeln. Diese Daten müssen sie weiter allen Beteiligten zur Verfügung stellen und es den zuständigen KollegInnen ermöglichen, Schlussfolgerungen daraus zu ziehen, welche im besten Fall zu produktiven und fruchtbaren Unternehmensentscheidungen führen.

Quelle: Glen Hopper via Forbes

---

Weitere spannende Blogbeiträge aus dem Bereich "Big Data":


Data Lake vs. Data Warehouse

Data Lake vs. Data Warehouse

Wann lohnt sich ein Data Warehouse und wann wäre ein Data Lake sinnvoller? Wir zeigen, worauf Unternehmen bei ihrer Entscheidung achten sollten.

Was sich hinter den Begriffen Data Lake und Data Warehouse genau verbirgt, haben wir bereits in vorangegangenen Blogbeiträgen erläutert. Beide sind in der Lage, große Informationsmengen zu speichern und für Auswertungen bereitzustellen. In ihren Konzepten und der Art der Datenspeicherung unterscheiden sich Data Lake (DL) und Data Warehouse (DWH) jedoch grundsätzlich.

Die Entscheidung, wann das eine oder das andere eingesetzt werden soll, hängt davon ab, was Sie mit den Daten vorhaben. Im Folgenden stellen wir DL und DWH einander gegenüber, um Sie bei Ihrer Entscheidung zu unterstützen.

Gegenüberstellung von Data Lake und Data Warehouse

Data Warehouses führen Daten aus unterschiedlichen Quellen zusammen und überführen sie in Formate und Strukturen, die eine direkte Analyse ermöglichen. Data Warehouses können große Datenmengen aus unterschiedlichen Quellen verarbeiten. In der Regel werden im DWH Kennzahlen oder Transaktionsdaten gespeichert. Unstrukturierte Daten (z.B. Bilder oder Audiodaten) können nicht abgelegt und verarbeitet werden. Der Einsatz eines DWH empfiehlt sich, wenn Unternehmen Analysen benötigen, die auf historische Daten aus verschiedenen Quellen im gesamten Unternehmen zurückgreifen.

Data Lakes nehmen Daten aus unterschiedlichen Quellen in ihrem Ursprungsformat auf und legt sie auch unstrukturiert ab. Es ist egal, ob die Daten für spätere Analysen relevant sind. Für die Speicherung der Daten muss der Data Lake die Art der später auszuführenden Analysen nicht kennen. Eine Suche, Strukturierung oder Umformatierung erfolgt erst, wenn die Daten tatsächlich benötigt werden. So ist ein Data Lake flexibler und kann daher gut bei sich verändernden oder noch nicht klar definierten Anforderungen eingesetzt werden.

Quellen: Oracle & BigData-Insider

---

Weitere spannende Blogbeiträge aus dem Bereich "Big Data":


Was ist ein "Data Warehouse”?

Was ist ein "Data Warehouse”?

Ein Data Warehouse speichert aktuelle und historische Daten für das gesamte Unternehmen. Wir zeigen Ihnen, was es darüber hinaus leisten kann und worin seine Vor- bzw. Nachteile liegen.

Unter dem Begriff “Data Warehouse“ wird eine Art von Datenverwaltungssystem verstanden, welches dazu dient, Business Intelligence-Aktivitäten (insbesondere die Durchführung von Abfragen und Analysen) zu ermöglichen und zu unterstützen. Data Warehouses enthalten oft große Mengen an historischen Daten.

Ein Data Warehouse zentralisiert und konsolidiert große Datenmengen aus verschiedenen Quellen, z.B. Anwendungsprotokolldateien und Transaktionsanwendungen. Hier sehen Sie zum Beispiel alle Datenbanken, die die centron ccloud³ unterstützt. Seine Analysefunktionen unterstützen Unternehmen dabei, wertvolle Geschäftserkenntnisse aus ihren Daten abzuleiten und so ihre Entscheidungsfindung zu verbessern. Im Laufe der Zeit wird ein historischer Datensatz erstellt, der von enorm hohem Wert sein kann.

Elemente eines typischen Data Warehouse
  • relationale Datenbank (zur Speicherung und Verwaltung der Daten)
  • Extraktions-, Lade- und Transformationslösung (zur Vorbereitung der Daten für die Analyse)
  • Statistische Analyse-, Berichts- und Data-Mining-Funktionen
  • Client-Analyse-Tools (zur Visualisierung und Präsentation von Daten)
  • Weitere anspruchsvollere analytische Anwendungen, die verwertbare Informationen generieren (durch Algorithmen oder künstliche Intelligenz) oder weitere Datenanalysen ermöglichen (durch grafische oder räumliche Funktionen)
Vor- und Nachteile eines Data Warehouse

➕ liefert erweiterte Business Intelligence
➕ gewährleistet Datenqualität und -konsistenz
➕ spart Zeit und Geld
➕ ermöglicht die Verfolgung historischer Daten
➕ sorgt für einen höheren ROI (Return on Investment)

➖ erfordert zusätzliches Reporting
➖ kann die Flexibilität im Umgang mit Daten einschränken
➖ kann zu datenrechtlichen Bedenken führen
➖ kann hohe Implementierungskosten verursachen

Quellen: Oracle & CIO

---

Weitere spannende Blogbeiträge aus dem Bereich "Big Data":


10 Stellschrauben für eine erfolgreiche Cloud-Migration

10 Stellschrauben für eine erfolgreiche Cloud-Migration

Die Cloudifizierung beschäftigt mittelständische Unternehmen wie kaum ein anderes IT-Thema. Wir zeigen Ihnen, welche Parameter bei der Planung und Umsetzung zu berücksichtigen sind.

In Zusammenarbeit mit verschiedenen ExpertInnen haben die KollegInnen von gridscale die 10 Stellschrauben für eine erfolgreiche Cloud-Migration im Mittelstand erarbeitet. Wir können uns dem daraus entstandenen Whitepaper nur anschließen und möchten Ihnen daher im Folgenden einen Überblick über die wesentlichen Punkte geben. Die vollständige Studie können Sie hier kostenlos anfordern.

Die 10 Stellschrauben für eine erfolgreiche Cloud-Migration

Den einen richtigen Weg gibt es bei der Cloudifizierung der Mittelstands-IT nicht. Nachfolgend werden lediglich verschiedene Parameter aufgezeigt, die bei der Planung und Umsetzung der Cloudifizierung zu berücksichtigen sind - einschließlich der damit verbundenen Herausforderungen und Handlungsoptionen.

Strategische Stellschrauben

1. Notwendigkeit der Cloudifzierung
Eine Cloudifizierung der internen IT ist grundsätzlich sinnvoll, um ein ausreichendes Maß an Ausfallsicherheit, Skalierung, Geschwindigkeit und Flexibilität gewährleisten zu können. Dennoch sollte die Cloudifizierung nicht um jeden Preis vorangetrieben werden. Entscheidend ist, inwieweit es dem betreffenden Unternehmen gelingt, eine adäquate Lösung für seine aktuellen Herausforderungen zu finden. Die Cloudifizierung sollte also pragmatisch und mit Augenmaß vorangetrieben werden.

2. Cloudifizierungs-Strategie
Unternehmen sollten sich bewusst sein, dass das Angebot an Cloud-Modellen vielfältig ist - eine gründliche Analyse der Anwendungslandschaft ist für eine fundierte Cloudifizierungs-Strategie unabdingbar. Darüber hinaus sollte die Strategie zur Cloudifizierung aus der Geschäfts- und IT-Strategie des Unternehmens abgeleitet werden. Ein tiefes Verständnis über die eigenen Applikationen und deren Bedeutung für den Geschäftsbetrieb ist also ebenfalls essenziell.

3. Umgang mit Public Clouds
Eine vollständige Verlagerung aller Workloads in eine Public Cloud scheint für die meisten Mittelständler weder ökonomisch sinnvoll noch kurzfristig realisierbar. Private-Cloud-Lösungen stehen in der Regel allerdings in Punkto Performance, Skalierung und Innovationsfähigkeit hinter Public-Cloud-Plattformen zurück.
Lassen sich Unternehmen auf eine Geschäftsbeziehung mit einem Hyperscaler, einem der großen Cloud-Serviceanbieter, ein, so müssen sich mit starken Lock-In-Effekten und in deren Folge mit großen Abhängigkeiten rechnen. Daher sollte im Voraus genau geprüft werden, welche Workloads in welchem Umfang in eine Public Cloud verlagert werden.
In Sachen Provider-Unabhängigkeit lohnt es sich, den Public-Cloud-Anbietermarkt genauer zu studieren. Neben den internationalen Hyperscalern haben sich mittlerweile zahlreiche Anbieter etabliert, die versuchen, sich über die Unterstützung von Muli- bzw. Hybrid Cloud Szenarien zu differenzieren.

Technische Stellschrauben

4. Voraussetzungen schaffen
Eine Cloudifizierung der internen Rechenzentrums-IT erfordert zunächst eine Transformation der Applikations- und Serverlandschaft sowie zugehöriger Prozesse. Techniken müssen soweit angeglichen werden, dass der Rz-Betrieb wertbeitragend, kostenoptimiert und möglichst nah an den Cloud-Methoden gemanagt werden kann. Natürlich bedeutet das einen immsensen Aufwand, weshalb kurzfristige und kostengünstige Cloud-Übergangslösungen verlockend erscheinen. Längerfristig können diese jedoch Risiken und somit Mehraufwand mit sich bringen.

5. Technische Planung
Eine Virtualisierung der Rechenkapazitäten ist eine gute Ausgangsbasis, aber noch lange keine Private Cloud. Hierfür sind neben dem RZ-Ausbau auch technische Abhängigkeiten wie Netzwerk- oder Security-Anforderungen zu berücksichtigen. Ein integriertes Management ist außerdem essenziell, um eine hohe Performance und Skalierbarkeit des Gesamtsystems zu gewährleisten – nach Möglichkeit plattformüberfreigend, sodass Hybrid- oder Omni-Cloud-Szenarien unterstützt und externe Provider effektiv gesteuert werden können. Gegebenenfalls müssen auch IoT-Strategien und die Einbindung sowie das Management von Edge-Komponenten bei der Cloud-Planung berücksichtigt werden.
Als nächsten logischen Schritt in Richtung Cloudifizierung könnte man die Implementierung einer sogenannten hyperkonvergenten Infrastruktur (auch Hyper Converged Infrastructure oder kurz: HCI) verstehen. Eine solche Software-definierte Architektur, die Server-, Speicher- und Netzwerkkomponenten sowie Virtualisierungs- und Management- Software in einem System integriert, bietet unter anderem große Vorteile im Hinblick auf Datenmanagement, Skalierbarkeit, Verfügbarkeit. HCIs sind allerdings mit erheblichen Investitionen verbunden und für Mittelständer häufig überdimensioniert. Eine kostengünstigere Alternative stellen extern bereitgestellte Hosted bzw. Managed Private Clouds dar.

6. Managed Cloud
Wie beschrieben ist der Aufwand für Aufbau und Betrieb einer Private Cloud enorm. Outsourcing-Optionen im Private Cloud-Umfeld sollten daher ernsthaft in Betracht gezogen und genau geprüft werden. Die Auswahl erfahrener Dienstleister und passender Angebote ist hierbei essenziell.
Eine Möglichkeit wäre es, Managed Private Cloud Services weitgehend über einen externen Dienstleister zu beziehen. Alternativ könnten einzelne Komponenten entweder direkt im as-a-Service-Modell bezogen werden oder intern implementiert und im Managed-Service-Modell betrieben gelassen werden. Der zweite Ansatz bietet mehr Flexibilität, Kontrolle und gegebenenfalls auch Kostenvorteile – er erfordert unternehmensseitig allerdings auch ein deutlich höheres Know-How als der erste Ansatz.

Kulturelle und organisatorische Stellschrauben

7. Neupositionierung der IT
Eine erfolgreiche Cloudifizierung ist nicht nur aus strategischer und technischer Perspektive zu betrachten – sie muss auch von den MitarbeiterInnen gelebt werden. Flexible Strukturen und agile Methoden können ihre Wirkung nur dann entfalten, wenn sie von den Menschen akzeptiert, richtig eingeordnet und zielgerichtet genutzt werden. Daher sollten genügend Zeit und Ressourcen eingeplant werden, um den Wandel in den Köpfen der Belegschaft aktiv zu fördern und zu begleiten.

8. Neuausrichtung der Prozesse
Cloud-Technologien forcieren neue Methoden und Arbeitsweisen, die im Unternehmen auf bestehende Organisationsstrukturen treffen, welche ebenfalls einen Zweck erfüllen und nicht einfach ausgetauscht werden können. Hier müssen pragmatische Lösungen gefunden werden, um beide Seiten in Einklang zu finden. Ein Prozessumbau ist in der Regel unausweichlich – dieser sollte allerdings keinesfalls als Einmalprojekt verstanden werden. Vielmehr ist es angesichts der Komplexität des Themas und der dynamischen Cloud-Entwicklung notwendig, einen kontinuierlichen Verbesserungsprozess im Unternehmen zu etablieren.

9. Gestaltung der externen Zusammenarbeit
Die Cloudifizierung geht, wie bereits ausgeführt, in der Regel mit einer verstärkten Nutzung externer Dienstleistungen einher. Dabei bildet eine Klärung der Zuständigkeiten die Basis, eine langfristige Partnerschaft auf Augenhöhe sollte das Ziel sein.
Je mehr Verantwortung auf die Dienstleister übertragen wird, umso mehr werden diese zum strategischen Partner. Damit sie diese Rolle ausführen können, macht es Sinn, sie in interne Kommunikations- und Entscheidungsprozesse einzubinden.
Je umfassender das Outsourcing, umso größer wird natürlich auch die Abhängigkeit des eigenen Unternehmens von der Performance des Partners. Dies kann nur verhindert werden, indem das Unternehmen die Beraterrolle selbst wahrnimmt – was jedoch ein hohes Maß an Kompetenz im Cloud-Bereich erfordert. Zusätzliche werden Ressourcen für das Cloud-Sourcing und Outtasking sowie für eine aktive (Multi-) Providersteuerung benötigt.

10. Personalentwicklung
Im Zuge der Cloudifizierung verändern sich die Aufgabenfelder in der IT. Welche Anforderungen konkret auf die MitarbeiterInnen zukommen, hängt davon ab, für welche Cloudart bzw. für welches Outsourcing-Modell das Unternehmen sich entschieden hat.
Soll ein Großteil der Worklouds über eine Private Cloud im Eigenbetrieb bereitgestellt werden, bedarf es zusätzlicher personeller Ressourcen, die das entsprechende Spezialwissen mitbringen müssen – und somit schwer zu gewinnen sind.
Sollen (Managed) Cloud Services überwiegend von externen Partnern bezogen werden, bedarf es MitarbeiterInnen, die in der Lage sind, ganzheitlich zu denken und zu agieren: Sie müssen die Auswirkungen ihrer Arbeit auf die unterschiedlichen Bereichen antizipieren.

Quelle: gridscale


Was ist ein „Data Lake"?

Was ist ein „Data Lake“?

strong>Ein Data Lake ist ein zentrales Repository, in dem alle strukturierten und unstrukturierten Daten in beliebigem Umfang gespeichert werden können. Wir zeigen Ihnen, was das genau bedeutet und worin die Vor- bzw. Nachteile liegen.

Der Begriff Data Lake beschreibt einen sehr großen Datenspeicher, der Daten aus den unterschiedlichsten Quellen aufnimmt. Die Besonderheit gegenüber normalen Datenbanken: Ein Data Lake nimmt die Daten in ihrem ursprünglichen Rohformat auf. Dabei kann es sich sowohl um strukturierte, als auch um unstrukturierte Daten halten – sie müssen vor der Speicherung nicht validiert oder umformatiert werden. Eine Strukturierung oder gegebenenfalls Umformatierung der Daten erfolgt erst, wenn die betreffenden Daten benötigt werden. So lässt sich der „Datensee“ (wörtliche Übersetzung) aus den verschiedensten Quellen speisen und für flexible Analysen im Big-Data-Umfeld ideal nutzen.

Das Konzept des Data Lakes wird von vielen Frameworks und Filesystemen für Big-Data-Anwendungen sowie vom verteilten Speichern von Daten unterstützt. Mit dem Distributed File System von Apache Hadoop (Hadoop Distributed File System - HDFS) lassen sich beispielsweise Data Lakes realisieren. Alternativ können Data Lakes auch mit Cloud Services wie Azure Data Lake und Amazon Web Services (AWS) umgesetzt werden.

Anforderungen an einen Data Lake

Um die Anforderungen der auf den Informationen aufsetzenden Anwendungen zu erfüllen, muss ein Data Lake wiederum folgende Anforderungen erfüllen:

  • Unterschiedlichste Daten bzw. Datenformate müssen sich ablegen lassen, um verteilte Datensilos zu vermeiden.
  • Gängige Frameworks und Protokolle der Datenbanksysteme und Datenbankanwendungen aus dem Big-Data-Umfeld sind zu unterstützen, um eine möglichst flexible Nutzung der Daten zu ermöglichen.
  • Folgende Maßnahmen sind zu ergreifen, um Datenschutz und Datensicherheit zu gewährleisten: Eine rollenbasierte Zugriffskontrolle, eine Verschlüsselung der Daten sowie Mechanismen zur Sicherung und Wiederherstellung der Daten.

Vor- und Nachteile eines Data Lakes

➕ Aussagekräftigere und tiefergehende Analysen dank der Vielzahl an bereitgestellten Informationen
➕ Schnelle Speichervorgänge durch die Speicherung der Daten in ihrem Rohformat (ohne vorherige Strukturierung oder Umformatierung)
➕ Geringe Anforderungen in Sachen Rechenleistung, selbst für die Speicherung großer Datenmengen
➕ Keine Einschränkung der Analysemöglichkeiten (durch die Aufnahme sämtlicher Daten)

➖ Hohe Anforderungen in puncto Datenschutz und Datensicherheit (je mehr Daten und je mehr Zusammenhänge, desto schutzbedürftiger)

Quelle: BigData-Insider


Tech-Trend #10: Nachhaltige Technologie

Tech-Trend #10: Nachhaltige Technologie

Nachhaltige Technologie ist ein Framework von digitalen Lösungen, welches in gleich drei entscheidenden Unternehmensbereichen Chancen schafft. Hier erfahren Sie mehr über diesen Tech-Trend und wie Sie ihn in Ihrem Unternehmen angehen können.

Für die kommenden Jahre sieht das US-amerikanische Research- und Beratungsunternehmen Gartner vier Prioritäten, die Unternehmen mit Hilfe verschiedener Technologie-Trends angehen können. Auf dieser Basis benennt und kategorisiert Gartner die 10 wichtigsten strategischen Technologie-Trends für 2023. (centron berichtete)

Als letzten dieser zehn Tech-Trends möchten wir Ihnen in diesem Beitrag nachhaltige Technologien vorstellen. Gartner ordnet diesen Trend der Priorität „Verfolgung von nachhaltigen Technologielösungen“ zu.

Nachhaltige Technologie

Laut Gartner reicht die Bereitstellung von Technologien allein im Jahr 2023 nicht mehr aus. Nachhaltige Technologie ist ein Framework von digitalen Lösungen, welches die Effizienz von IT-Services erhöht. Außerdem ermöglicht es Nachhaltigkeit in Unternehmen (durch Technologien wie Rückverfolgbarkeit, Analytik, Emissionsmanagement-Software und KI) und es unterstützt KundInnen dabei, ihre eigenen Nachhaltigkeitsziele zu erreichen. Es werden also in gleich drei entscheidenden Bereichen des Unternehmens Möglichkeiten geschaffen: interne IT-, Unternehmens- und Kundenabläufe.

Investitionen in nachhaltige Technologien haben laut Gartner-Prognose das Potenzial, die betriebliche Stabilität und die finanzielle Leistungsfähigkeit zu verbessern und gleichzeitig neue Wachtumsmöglichkeiten zu eröffnen. Handeln Sie jetzt und setzen Sie Ihren Themen entsprechende Prioritäten für Technologieinvestitionen, um ein effektives, nachhaltiges Technologieportfolio zu schaffen. Hierfür könnten unter anderem Cloud Services, Software für das Treibhausgasmanagement, KI, Supply-Chain-Blockchain oder Anwendungen zur Nachhaltigkeit von Lieferanten interessant sein.

Quelle: Gartner


Was ist „Big Data“ eigentlich?

Was ist „Big Data“ eigentlich?

Big Data liefert neue Erkenntnisse, die wiederum neue Möglichkeiten und Geschäftsmodelle eröffnen. Im ersten Teil unserer neuen Blogreihe erfahren Sie, wie das gelingt.

„Big Data“ ist in aller Munde. Im ersten Teil unserer neuen Blogreihe wollen wir zunächst einmal klären, was darunter überhaupt zu verstehen ist, wie Big Data grundlegend funktioniert und was damit angefangen werden kann.

Unter Big Data werden Daten verstanden, die eine größere Vielfalt aufweisen und in immer größeren Mengen und mit höherer Geschwindigkeit anfallen. Big Data basiert also grundlegend auf diesen drei Vs:

  • Volume: Große Mengen an unstrukturierten Daten mit geringer Dichte werden verarbeitet. Dabei kann es sich um verschiedenste Daten aus unterschiedlichsten Quellen und von unbekanntem Wert handeln. Bei einigen Unternehmen könnten das Hunderte von Petabytes sein.
  • Velocity: Die Daten fließen mit höchster Geschwindigkeit direkt in den Speicher und werden nicht auf die Festplatte geschrieben. Einige internetfähige intelligente Produkte arbeiten (nahezu) in Echtzeit und erfordern auch eine Bewertung/Reaktion in Echtzeit.
  • Variety: Zu den traditionellen, strukturierten Datentypen kommen neue, unstrukturierte oder semistrukturierte Datentypen hinzu, die eine zusätzliche Vorverarbeitung erfordern, um die Bedeutung abzuleiten und Metadaten zu unterstützen.

In den letzten Jahren haben sich noch zwei weitere Vs herauskristallisiert:

  • Value: Ein beachtlicher Teil des Wertes, den die größten Technologieunternehmen der Welt bieten, stammt aus ihren Daten, die sie ständig analysieren, um effizienter zu werden und neue Produkte zu entwickeln. Daten haben einen intrinsischen Wert, sind jedoch erst dann von Nutzen, wenn dieser Wert entdeckt wird.
  • Veracity: Wie verlässlich sind die vorliegenden Daten?

Was sind die Vorteile von Big Data?

Big Data liefert vollständigere Antworten als herkömmliche Datenanalysen, da mehr Informationen vorliegen. Vollständigere Antworten bringen mehr Vertrauen in die Daten mit sich - und damit eine völlig andere Herangehensweise an die Lösung von Problemen. Man kann also sagen, dass Big Data neue Erkenntnisse liefert, die wiederum neue Möglichkeiten und Geschäftsmodelle eröffnen.

Wie funktioniert Big Data überhaupt?

Schritt 1: Integration
Zunächst müssen Daten eingebracht und verarbeitet werden. Es muss sichergestellt sein, dass die Daten in einer Form formatiert und verfügbar sind, mit der die Geschäftsanalysten weiterarbeiten können. Achtung: Herkömmliche Datenintegrationsmechanismen sind dieser Aufgabe in der Regel nicht gewachsen. Um die riesigen Datensätze im Terabyte- oder sogar Petabyte-Maßstab zu analysieren, sind neue Strategien und Technologien erforderlich.

Schritt 2: Verwaltung
Big Data braucht Speicherplatz. Diese Speicherlösung kann in der Cloud, vor Ort oder auch hybrid sein. Die Cloud bietet sich hier unseres Erachtens an, da sie aktuelle Rechenanforderungen unterstützt und gleichzeitig im Bedarfsfall leicht erweitert werden kann.

Schritt 3: Analyse
Eine visuelle Analyse der vielfältigen Datensätze kann neue Klarheit verschaffen. Maschinelles Lernen (ML) und künstliche Intelligenz (KI) können hier unterstützen.

Wobei kann Big Data helfen?

Big Data kann bei zahlreichen Geschäftsaktivitäten unterstützen. Einige Beispiele sind:

  • Produktentwicklung: Vorhersagemodelle für neue Produkte/Dienstleistungen können erstellt werden, indem Schlüsselattribute früherer und aktueller Produkte/Dienstleistungen klassifiziert und in eine Beziehung zum kommerziellen Erfolg der Angebote gesetzt werden.
  • Vorausschauende Instandhaltung: Faktoren, die mechanische Ausfälle vorhersagen können, können tief in strukturierten Daten vergraben sein (z.B. Baujahr, Sensordaten) – durch die Analyse dieser Daten können Unternehmen die Wartung frühzeitig und kosteneffizienter durchführen.
  • Maschinelles Lernen: Big Data – und die damit verbundene Verfügbarkeit großer Datenmengen – macht das Trainieren von Modellen für maschinelles Lernen möglich.
  • Betrug und Compliance: Big Data hilft dabei, auffällige Muster in Daten zu erkennen und große Datenmengen zu aggregieren, um die Berichterstattung an Aufsichtsbehörden zu beschleunigen.

Herausforderungen von Big Data

Um die Möglichkeiten, die Big Data mit sich bringt, nutzen zu können, müssen zunächst einige Herausforderungen gemeistert werden.

1. Speicherung der Daten
Zunächst müssen Unternehmen Wege finden, ihre Daten effektiv zu speichern. Obwohl neue Technologien für die Datenspeicherung entwickelt wurden, verdoppelt sich das Datenvolumen etwa alle zwei Jahre.

2. Aufbereitung der Daten
Saubere Daten (d.h. Daten, die relevant und so organisiert sind, dass eine sinnvolle Analyse möglich ist) erfordern viel Arbeit. DatenwissenschaftlerInnen verbringen 50 bis 80 Prozent ihrer Zeit mit der Aufbereitung und Vorbereitung von Daten.

3. Up to date bleiben
Mit der Big-Data-Technologie Schritt zu halten, ist eine ständige Herausforderung. Vor ein paar Jahren war Apache Hadoop die beliebteste Technologie für die Verarbeitung von Big Data. Heute scheint eine Kombination der beiden Frameworks Apache Hadoop und Apache Spark der beste Ansatz zu sein.

Quelle: Oracle


Tech-Trend #9: Metaverse

Tech-Trend #9: Metaverse

Metaverse-Technologien sind die Zukunft der Interaktion in der virtuellen und physischen Welt. Hier erfahren Sie mehr über diesen Tech-Trend und wie Sie ihn in Ihrem Unternehmen angehen können.

Für die kommenden Jahre sieht das US-amerikanische Research- und Beratungsunternehmen Gartner vier Prioritäten, die Unternehmen mit Hilfe verschiedener Technologie-Trends angehen können. Auf dieser Basis benennt und kategorisiert Gartner die 10 wichtigsten strategischen Technologie-Trends für 2023. (centron berichtete)

Als neunten dieser zehn Tech-Trends möchten wir Ihnen in diesem Beitrag das sogenannte Metaverse vorstellen. Gartner ordnet diesen Trend der Priorität „Pionierleistung bei der Einbindung von Kunden, beschleunigten Antworten oder Chancen“ zu.

Metaverse

Ein Metaverse ist ein virtueller gemeinsamer Raum, der durch die Konvergenz der virtuell erweiterten physischen und digitalen Realität entsteht. Es ist nicht geräteunabhängig und es gehört auch keinem einzelnen Anbieter. Es ist vielmehr eine unabhängige virtuelle Wirtschaft, welche durch digitale Währungen und nicht-fungible Token (NFTs) ermöglicht wird. Ganz simpel ausgedrückt können Metaverses auch als die nächste Generation des Internets verstanden werden.

Metaverses sind eine kombinatorische Innovation – das bedeutet, dass sie mehrere Technologien und Trends benötigen, um zu funktionieren. Dazu tragen virtuelle Realität (VR), erweiterte Realität (AR), flexible Arbeitsstile, am Kopf befestigte Displays (HMDs), eine AR-Cloud, das Internet der Dinge (IoT), 5G, KI und räumliches Computing bei.

Metaverse-Technologien sind die Zukunft der Interaktion in der virtuellen und physischen Welt und stellen innovative neue Möglichkeiten und Geschäftsmodelle bereit. Einige dieser Möglichkeiten zeichnen sich bereits ab – sowohl für Unternehmen als auch für Privatpersonen:

Gartner geht davon aus, dass bis zum Jahr 2026 25 Prozent der Menschen mindestens eine Stunde pro Tag im Metaverse verbringen werden - zum Arbeiten, zum Einkaufen, um sich weiterzubilden, soziale Medien zu nutzen oder auch aus Unterhaltungszwecken.

Chancen für Unternehmen

„Das“ Metaverse gibt es aktuell noch nicht. Ein Metaverse umfasst heute noch mehrere neue Technologien. Gartner rät Unternehmen, derzeit noch vorsichtig mit Investitionen umzugehen, da es noch zu früh ist, um festzustellen, was für das Unternehmen langfristig rentabel ist.

Letztendlich wird das Metaverse Gartner-Prognosen zufolge jedoch dauerhafte, dezentralisierte, kollaborative und interoperable Möglichkeiten und Geschäftsmodelle bereitstellen, die es Unternehmen ermöglichen, ihr Digital Business zu erweitern.
Im Moment können Ihnen diese Maßnahmen dabei helfen, eine Strategie zu entwerfen, die Metaverse-Technologien einschließt:

  • Möglichkeiten erkunden, mit Hilfe von Metaverse-Technologien das Digital Business zu optimieren oder neue Produkte und Services zu schaffen
  • Metaverse-Produkte und -Lösungen durch eine Pipeline von kombinatorischen Innovationen aufbauen
  • Vom Metaverse inspirierte Möglichkeiten identifizieren durch die Bewertung aktueller, hochwertiger Anwendungsfälle
  • Mit Bedacht in bestimmte aufkommende Metaverses investieren (Achtung: Schützen Sie Ihren Ruf, indem Sie proaktiv eine Data Governance-, Sicherheits- und Datenschutzrichtlinie etablieren!)

Quelle: Gartner


Wie können wir Angriffe auf KI verhindern?

Wie können wir Angriffe auf KI verhindern?

Je mehr wir uns auf KI-Systeme verlassen, umso höher wird das Risiko von Manipulation. Der Wettlauf um die Entwicklung entsprechender Schutzmaßnahmen hat begonnen.

Künstliche Intelligenz (KI) wird zu einem immer festeren Bestandteil unseres Alltags. Doch was, wenn die Algorithmen, die zur Steuerung von fahrerlosen Autos, kritischer Infrastruktur, dem Gesundheitswesen und vielem mehr eingesetzt werden, manipuliert werden?

Aktuell sind derartige Angriffe noch die Seltenheit – ExpertInnen gehen jedoch davon aus, dass die Häufigkeit mit der zunehmenden Verbreitung von KI-Systemen deutlich ansteigen wird. Wenn wir uns weiterhin auf solche automatisierten Systeme verlassen wollen, müssen wir also sicherstellen, dass KI-Systeme nicht dazu verleitet werden können, schlechte oder gar gefährliche Entscheidungen zu treffen.

Manipulation von KI-Systemen

Die Sorge, KI könnte manipuliert werden, ist natürlich nicht neu. Mittlerweile gibt es jedoch ein wachsendes Verständnis dafür, wie Deep-Learning-Algorithmen durch geringfügige - aber nicht wahrnehmbare - Änderungen ausgetrickst werden können. Das wiederum führt zu einer falschen Klassifizierung dessen, was der Algorithmus untersucht.

Bereits vor einigen Jahren haben ForscherInnen gezeigt, wie sie gegnerische 3D-Objekte erstellen können, die ein neuronales Netz dazu verleiten, eine Schildkröte für ein Gewehr zu halten. Professor Dawn Song (University of California, Berkeley) zeigte außerdem, wie Aufkleber an bestimmten Stellen eines Stoppschilds die KI dazu bringen können, dieses stattdessen als Geschwindigkeitsbegrenzungsschild zu interpretieren.

Wenn noch ein Mensch involviert ist, können solche Fehler rechtzeitig bemerkt werden. Wenn die Automatisierung jedoch mehr und mehr die Kontrolle übernimmt, gibt es vielleicht bald niemanden mehr, der die Arbeit der KI überprüft.

Kampf gegen den Missbrauch von KI

Hilfe könnte das millionenschwere GARD-Projekt der US-amerikanischen Defense Advanced Research Projects Agency (DARPA) bieten, das drei Hauptziele rund um den Kampf gegen KI-Missbrauch verfolgt:

  1. Algorithmen entwickeln, die das maschinelle Lernen schon jetzt vor Schwachstellen und Störungen schützen
  2. Theorien entwickeln, wie sichergestellt werden kann, dass KI-Algorithmen auch dann noch gegen Angriffe geschützt sind, wenn die Technologie immer fortschrittlicher und freier verfügbar wird
  3. Werkzeuge entwickeln und weitergeben, die vor Angriffen auf KI-Systeme schützen und beurteilen können, ob KI gut geschützt ist

Um dem GARD-Programm Plattformen, Bibliotheken, Datensätze und Schulungsmaterialien zur Verfügung zu stellen zu können, arbeitet die DARPA mit einer Reihe von Technologieunternehmen wie IBM und Google zusammen. So kann die Robustheit von KI-Modellen und ihre Verteidigung gegen aktuelle und zukünftige Angriffe bewertet werden.

Eine Schlüsselkomponente von GARD ist die virtuelle Plattform Armory, die auf GitHub zur Verfügung steht. Sie dient ForscherInnen als Testumgebung, die wiederholbare, skalierbare und robuste Bewertungen der von anderen entwickelten Abwehrmechanismen benötigen.

Im Kampf gegen den Missbrauch von KI ist bereits der Aufbau von Plattformen und Tools zur Bewertung und zum Schutz gegen die heutigen Bedrohungen schwierig genug. Noch schwieriger ist es, herauszufinden, was HackerInnen morgen gegen diese Systeme unternehmen werden.

Die Gefahr der Datenvergiftung

Neben direkten Angriffen auf die KI-Algorithmen geht auch von der sogenannten Datenvergiftung ein enormes Risiko aus. Dabei werden die zur Erstellung der KI verwendeten Trainingsdaten von AngreiferInnen verändert, um die Entscheidungen der KI von Vornherein zu beeinflussen. Diese Gefahr besteht vor allem dann, wenn eine KI auf einem Datensatz trainiert wird, der aus dem öffentlichen Bereich stammt – gerade dann, wenn die Öffentlichkeit weiß, dass dies der Fall ist.

Ein Beispiel hierfür stellt Microsofts KI-Bot Tay dar. Microsoft schickte ihn auf Twitter aus, um mit Menschen zu interagieren, damit er lernt, natürliche Sprache zu verwenden und wie Menschen zu sprechen. Innerhalb weniger Stunden hatten die Menschen Tay dazu verleitet, beleidigende Dinge zu sagen, sodass Microsoft ihn schließlich wieder vom Netz nahm.

Quelle: ZDNET


Tech-Trend #8: Adaptive KI

Tech-Trend #8: Adaptive KI

Adaptive KI kann ihren eigenen Code überarbeiten und sich so an Veränderungen in der realen Welt anpassen. Hier erfahren Sie mehr über diesen Tech-Trend und wie Sie ihn in Ihrem Unternehmen angehen können.

Für die kommenden Jahre sieht das US-amerikanische Research- und Beratungsunternehmen Gartner vier Prioritäten, die Unternehmen mit Hilfe verschiedener Technologie-Trends angehen können. Auf dieser Basis benennt und kategorisiert Gartner die 10 wichtigsten strategischen Technologie-Trends für 2023. (centron berichtete)

Als achten dieser zehn Tech-Trends möchten wir Ihnen in diesem Beitrag adaptive KI vorstellen. Gartner ordnet diesen Trend der Priorität „Pionierleistung bei der Einbindung von Kunden, beschleunigten Antworten oder Chancen“ zu.

 

Adaptive KI

Im Gegensatz zu herkömmlichen KI-Systemen kann die sogenannte adaptive KI ihren eigenen Code überarbeiten und sich auf diese Weise an Veränderungen in der realen Welt anpassen. Genauer gesagt zielen adaptive KI-Systeme darauf ab, Modelle kontinuierlich neu zu trainieren oder alternative Mechanismen anzuwenden, um sich anzupassen und zu lernen.

Mit dieser Art künstlicher Intelligenz können Unternehmen die Anpassungsfähigkeit und Widerstandsfähigkeit in ihr Design integrieren sowie schneller und effektiver auf Störungen reagieren. Gerade in Krisenzeiten (Stichwort Coronapandemie oder Klimakrise) sind Flexibilität und Anpassungsfähigkeit für Unternehmen unabdingbar.

Gerade die Entscheidungsfindung ist für jedes Unternehmen eine kritische und immer komplexere Tätigkeit. Um hier auf adaptive KI zurückgreifen zu können, muss die bestehende Prozessarchitektur angepasst werden. Unter anderem müssen Unternehmen die ethische Nutzung von KI im Hinblick auf Compliance und Vorschriften sicherstellen.

Neben den organisatorischen Basics müssen auch erst einmal die Grundlagen für adaptive KI-Systeme geschaffen werden. Dafür werden aktuelle KI-Implementierungen mit Designmustern für kontinuierliche Intelligenz und Event-Stream-Funktionen ergänzt. Anschließend kann zu agentenbasierten Verfahren übergegangen werden, um den Systemkomponenten mehr Autonomie zu verleihen.

Einer Gartner-Prognose zufolge werden Unternehmen, die bis 2026 AI-Engineering-Praktiken zum Aufbau und zur Verwaltung adaptiver KI-Systeme eingeführt haben, ihre Konkurrenten in Bezug auf die Anzahl und den Zeitaufwand für die Operationalisierung von Modellen der KI um mindestens 25 Prozent übertreffen.

Quelle: Gartner