Die Software zeigt die selektierten Daten grün an. Daten, die in Beziehung zur Auswahl stehen, erscheinen weiß und Daten, die nicht mit der Auswahl zusammenhängen, grau. Die Auswahl wirkt sich auf alle berechneten Werte aus. Bei einer Interaktion sieht der Nutzer die Beziehung zwischen den ausgewählten Daten und die Auswirkungen, die diese auf die jeweiligen Berechnungen haben. Was laut Klein wichtig ist: Der Anwender hat alle Daten im Blick – auch die, die nicht in Zusammenhang mit der Selektion stehen. So könne er durch Daten, die ansonsten ausgeblendet wären, unerwartete Erkenntnisse gewinnen.
Diese “assoziative Suche” habe zwei technologische Voraussetzungen: Die Daten werden im RAM gehalten und die Berechnungen erfolgen in Echtzeit. Qliktech profitiere hier von zwei IT-Trends.
Der erste Trend ist der Übergang von 32- auf 64-Bit-Betriebssysteme. Gegenwärtig sind Server mit 512 Gigabyte RAM erhältlich, noch 2005 verfügten die meisten Server gerade über 4 Gigabyte RAM. Durch diese neuen Kapazitäten der Arbeitsspeicher können die Daten direkt im RAM anstatt auf der Festplatte gespeichert werden.
Der zweite Trend besteht in der zunehmenden Verbreitung von Multi-Core-CPUs. Im Jahr 2005 besaßen die meisten Server eine Single-Core-CPU, heute können handelsübliche Server bis zu acht CPUs mit insgesamt 48 Kernen besitzen. Für Anwendungen, für die Ausführung paralleler Berechnungen entwickelt wurden, bedeute diese Veränderung eine beträchtliche Steigerung der Prozessorleistung.
Laut Klein kann die Software die Rechenlast zudem auf die CPU-Kerne verteilen und die Prozessorressourcen für eine Vielzahl gleichzeitiger User verwalten. Weiterhin könnten zwischengespeicherte Ergebnisse von allen Anwendern genutzt werden, so dass die am häufigsten verwendeten Berechnungen so selten wie möglich ausgeführt werden müssen.
Herkömmliche Business Intelligence Tools erforderten dagegen in der Regel eine komplexe Implementierung, da die Datenvolumina erst in Data Warehouses verschoben werden müssen. Traditionelle Tools speicherten die Analysen in vorberechneten Datenwürfeln auf der Festplatte, um die Rechenleistung zu erhöhen. Die Konfiguration und Wartung dieser festplattenbasierten Würfel sei schwierig. Schließlich könnten traditionelle Systeme aufgrund ihrer Komplexität nicht von den Anwendern selbst, sondern nur von IT-Abteilungen verwaltet werden.
Page: 1 2
Großbank wird auf die Infrastruktur, Künstliche Intelligenz und Datenanalyselösungen von Google Cloud zurückgreifen.
Neue Lünendonk-Studie: Wie Managed Services die digitale Transformation beschleunigen und dem Fachkräftemangel entgegenwirken.
Fraunhofer hat eine KI-basierte Produktionsüberwachung und -steuerung für mittelständische Industriebetriebe entwickelt.
Jedes fünfte Unternehmen hat seine Regelungen für mobile Heimarbeit abgeschafft, ein weiteres Fünftel will sie…
Die rasante Entwicklung von KI-Agenten bringt insbesondere Herausforderungen für den Schutz sensibler Daten mit sich.
2020 könnten böswillige Akteure Zugang zu quantengestützten Cyberangriffen haben, warnt Cindy Provin von Utimaco.