Bei Big Data geht es um sämtliche Daten, die Organisationen verarbeiten. Es sollte sämtliche Datenquellen und -typen einschließen, über die Unternehmen verfügen (oder eben nicht verfügen) – große und kleine, ‘langsame’ und ‘schnelle’, traditionelle und neu aufkommende, vor Ort oder extern. Es ist nicht limititert auf spezielle ‘nucleuses of data’ oder nur auf neu aufkommende Datenbestände begrenzt. Es geht um die Gesamtheit der Daten im Unternehmen.
Dementsprechend bezieht sich der Begriff auch nicht nur auf die Daten selbst, er bezieht sich auch darauf, wie Daten verarbeitet werden. Und, wie dieser Beitrag belegt, werden Unternehmen neue Technologien und neue Ansätze benötigen, wenn sie Big Data wirksam einsetzen wollen, darunter innovative Arten der Informationsverarbeitung für bessere Erkenntnisse und Entscheidungen.
Der Big-Data-Markt steckt noch in den Kinderschuhen. 2013 war das Jahr der Experimente. Viele Organisationen führen immer noch “Proof of Concepts” POCs) durch. Nur sehr wenige haben sich aus dem Sandkasten und an echte Praxisszenarien herangetraut. Und für noch weniger haben sich ihre Investitionen finanziell oder in Form von fassbaren Ergebnisse nennenswert gelohnt.
2014 wird zumindest für einige Unternehmen, das Jahr der Praxiseinsätze, wenn die frühen Anwender live gehen und beginnen, die Früchte ihrer Bemühungen zu ernten.
Mit der Entwicklung der Big-Data-Umgebung ist auch die Technologie zur Steuerung immer komplexer geworden. Die Zahl der Ingenieure, die in der Lage sind, diese Technologie zu bedienen oder zu verstehen, konnte damit nicht Schritt halten.
Eines der wichtigsten Systeme zur Verarbeitung, Hadoop, ist immer noch relativ neu und nur wenige Ingenieure können damit umgehen. NoSQL ist ein neues Paradigma, dass nur wenige Leute wirklich durchschauen. Selbst ausgewiesene Experten für relationale Datenbanken sind nicht unbedingt in der Lage, es zu nutzen.
Das bedeutet, dass es nur sehr wenig Personal mit Kenntnissen und Erfahrungen mit Big Data auf dem Arbeitsmarkt gibt – und die verfügbaren sind typischerweise unglaublich teuer. Also müssen Unternehmen die Expertise intern aufbauen und ihre Mitarbeiter in Big Data schulen. Dann aber laufen sie Gefahr, dass die fertig ausgebildeten Mitarbeiter von einem Wettbewerber abgeworben werden, der ihnen mehr zahlt.
Wie kann eine Lösung aussehen? Unternehmen benötigen Technologien, mit denen Nicht-Big-Data-Experten Big Data nutzen können: Damit wäre ein normaler Datenintegrationsentwickler, der jahrelang mit ETL gearbeitet hat, beispielsweise in der Lage, Big-Data-Prozesse zu erzeugen und einzurichten.
Also müssen Unternehmen sich neue Werkzeuge besorgen. Für ihre Reise zu den Big Data benötigen sie die richtige Ausstattung, mit der sie die Komplexität der Umgebung beherrschen können, ohne notwendigerweise alles lernen zu müssen und selbst zu Technikexperten zu werden. Das sollte schnell geschehen – wenn sie nicht in einem immer umkämpfteren Markt ins Hintertreffen geraten wollen.
Das Internet der Dinge bietet eine ungeheure Marktchance. Die Analysten von IDC haben kürzlich herausgefunden, dass die installierte Basis an vernetzten Dingen bis 2020 bei etwa 212 Milliarden liegen wird, darunter 30,1 Milliarden autonome Dinge. IDC schätzt, dass Ausgaben für Technologie und Services beim Internet der Dinge 2012 bei 4,8 Billionen US-Dollar liegen und der Markt 2020 ein Volumen von 8,9 Billionen US-Dollar erreichen wird!
Traditionelle Industrien wie die Versorgungsbranche und das Transportwesen, die vernetzte Geräte in großem Umfang nutzen, stehen vor einer Transformation. Sehr wahrscheinlich wird es auch in anderen Branchen große Möglichkeiten geben, etwa im Postwesen oder Einzelhandel.
Die größten technischen Herausforderungen beim Internet der Dinge beziehen sich auf die riesigen Datenmengen, die erzeugt werden. Intelligente Zähler für Elektrizität (Smart Meters) sind hier ein Punkt. Wenn Versorgungsunternehmen alle 15 Minuten Daten von ihren Zählern sammeln, anstatt alle 12 Monate einen Techniker zum Ablesen zu schicken, liegt der enorme Anstieg der Datenmenge, die gespeichert werden muss, klar auf der Hand, insbesondere angesichts der großen Kundenbasis dieser Organisationen.
Das Dilemma für diese Unternehmen besteht darin, wie man diese Daten dann verwalten und schließlich nutzen kann, um sich einen Wettbewerbsvorteil zu verschaffen. Um das effektiv zu erledigen, werden sie einen umfassenden “Total Data Management”-Ansatz benötigen, mit dem sie nicht nur mit den riesigen Datenmengen, die im Spiel sind, umgehen, sondern auch historische Informationen zu Verbrauchsverhalten und Rechnungsmuster mit den neuen Datenarten von Sensoren verbinden können. Unternehmen stehen dabei vor einer großen Herausforderung. Wie kann neueste Technologie ihnen dabei helfen?
Das rasante Wachstum des Marktes für das Internet der Dinge wirft einige ernste Fragen über die Privatheit und Sicherheit von Daten auf. Der zunehmende Einsatz vernetzter Geräte auf dem Consumer-Markt und die enormen Datenmengen, die bereits gesammelt werden, bedeuten auch, dass es ernsthafte Folgen haben kann, wenn die Daten in falsche Hände geraten.
Was wäre, wenn Informationen von Geräten zur Überwachung von Diabetes oder Herzfunktionen für Versicherungsunternehmen verfügbar wären? Oder wenn Einzelheiten über den Stromverbrauch eines Konsumenten einer Telemarketingfirma bekannt wären?
Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…
Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…
Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…
Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…
Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…
COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…