Warum der digitale Binnenmarkt gelernten Wettbewerbsprinzipien entgegenläuft. Und wie das TANGO-Projekt die Interessen von Bürgern technologisch ausgleicht.

Warum der digitale Binnenmarkt gelernten Wettbewerbsprinzipien entgegenläuft. Und wie das TANGO-Projekt die Interessen von Bürgern technologisch ausgleicht.
Mit Backpulver-Tütchen stellte Dr. Oetger vor über 100 Jahren die Kundenbedürfnisse in den Mittelpunkt. Diesen Weg geht das Unternehmen auch digital weiter.
Einbindung in die Geschäftsprozesse, Nutzung von Künstlicher Intelligenz und laufende IoT-Projekte.
Echtzeitüberwachung sorgt in Queensland für effiziente Bewässerung und Düngung, weniger Nährstoffverluste und höhere Qualität von Zitrusbäumen.
Was die Datenanalyse für CX, Marketing und die Kosten-Nutzen-Analyse bedeutet, erklärt Gastautorin Elke Mallmann von Valtech Germany.
Blechwarenfabrik Limburg setzt auf standardisierte, integrierte Echtzeit-Datenanalyse für mehr Nachhaltigkeit und beschleunigte Produktion.
Flughafen-Konzern Fraport setzt auf SAS Analytics für die Vorhersage und Simulation von Passagier- und Gepäckströmen.
Die PistenBully von Kässbohrer Geländefahrzeug sind via Mobilfunk vernetzt. Das erhöht die Sicherheit und macht den Betrieb von Skigebieten effizienter.
Unternehmen der DACH-Region verstärken Anstrengungen zur Emissionsreduzierung, zugleich steigt die Bedeutung der IT für Nachhaltigkeitsinitiativen.
Wie KI Muster in Daten erkennt, um daraus neue datenschutzkonforme Daten zu generieren, erklärt Alexandra Ebert, Chief Trust Officer von MOSTLY AI.
Le Wagon startet Data Analytics-Intensivkurse im April / Online-Bewerbung gestartet
Das niederländische Universitätsklinikum will sich zu einem datengetriebenen Krankenhaus weiterentwickeln.
Der Einsatz von satellitengestützten Daten für Umweltschutz und Umweltanalyse ist unendlich, sagt Gastautorin Wendy Carrara von Airbus Defence and Space.
Wenn Wettbewerber ihr Geschäftsmodell von Beginn an digital aufgebaut haben, werden sie schnell zu ernsthaften Konkurrenten, warnt Gastautor Philippe Picalek.
Wie einfache Probleme der Datenanalyse mit Mitteln der Wahrscheinlichkeitsrechnung gelöst werden können, vermittelt ein kostenloser Onlinekurs des Hasso-Plattner-Instituts (HPI).
Warum eine tiefgreifende Katalogisierung und Auswertung von Unternehmensdaten nahezu unverzichtbar ist und welche Tools dafür am besten in Frage kommen, erklärt Gastautor Professor René Brunner.
Wer durch Krisenzeiten navigieren will, muss auf Basis zuverlässiger Daten rasch Entscheidungen treffen können, sagt Gastautor Ulrich Flamm von ServiceNow.
PwC hat die Bedeutung einer für das Thema Daten zuständigen Führungsposition in Unternehmen untersucht.
Forschung im Bereich des intelligenten Lebenszyklusmanagements für Infrastrukturbauwerke wie digitale Zwillinge für Brückenbauwerke.
Wachstum und Innovation werden ausgebremst, weil Unternehmen und Behörden zu wenig aus ihren Daten rausholen.
Wie Vermögensberater ihre Kunden vor Zinserhöhungs- und Inflations-Panik bewahren, erklärt Andreas Diener von Avaloq im Gastbeitrag.
Sich rasant verändernde Bedingungen erfordern schnelle und zielgerichtete Entscheidungsfindungsprozesse mit Hilfe von Datensätzen.
Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten.
Kässbohrer, Hersteller von Gelände- und Pistenfahrzeuge, erhöht die Konnektivität seiner Geländefahrzeuge mit SIM-Karten der Telekom.
Fujitsu implementiert Qlik, um bessere Erkenntnisse aus Daten zu gewinnen
Daten aus dem Industrial Internet of Things (IIoT) führen in Deutschland, Österreich und der Schweiz zumeist ein Inseldasein.
BMW und AWS wollen Fähigkeiten von vernetzten Fahrzeugen und softwaredefinierten Fahrzeugen vorantreiben.
Deep Learning, neuronale Netzwerke, KI: Der Mittelstand tut sich schwer mit diesen Technologien. Doch die Datenanalyse bietet großes Potenzial, sagt David Sweenor von Alteryx.
"Traditionelle Verfahren der Anonymisierung funktionieren nicht mehr so gut", sagt Dr. Tobias Hann, CEO von MOSTLY AI im Interview.
Laut einer Gartner-Prognose sollen in zwei Jahren 70 Prozent aller Daten synthetisch sein.