Wertvolles Wissen aus gigantischen Datenfluten

Unternehmen der Big Data-Branche bieten in erster Linie Analyseprogramme an, die grosse Datenmengen mithilfe von ausgeklügelten Algorithmen nach brauchbaren Mustern durchsuchen. Die Aufdeckung von Zusammenhängen soll zu Erkenntnissen führen, mit denen unter anderem Geschäftsprozesse optimiert und neuartige Geschäftsmodelle entwickelt werden könnten.
14.02.2014 16:02
Robin Lemann, Public Distribution Team Schweiz, UBS

Big Data wird vielerorts das Potenzial zugesprochen, unsere moderne, zunehmend vernetzte Welt nachhaltig zu prägen. Gewöhnlich fängt Big Data da an, wo herkömmliche Datenbanken bei der Speicherung und beim Management digitaler Daten an ihre Grenzen geraten. Ein gutes Beispiel hierfür ist die zunehmende Kameraüberwachung öffentlicher Räume. Die Aufnahme einer Videokamera im High Definition (HD) Standard beispielsweise benötigt in einer Sekunde 2.000 Mal mehr Speicherplatz als eine digitale Textseite.

Zunehmende Digitalisierung

Natürlich ist davon auszugehen, dass herkömmliche Datenbanken mit der Zeit immer leistungsfähiger werden und ihre Kapazitätsgrenzen zu ihren Gunsten verschieben. Allerdings wird dieses Tempo auf absehbare Zeit wohl kaum ausreichen, um mit dem wachsenden Aufkommen von Daten Schritt halten zu können. Denn nicht nur an öffentlichen Plätzen hält die zunehmende Digitalisierung und die damit einhergehende Bewältigung riesiger Datenmengen Einzug. Der Alltag jedes einzelnen von uns hat sich wohl in den vergangenen 20 Jahren durch Email, Internet und Mobiltelefon dramatisch verändert.

Wachsende Datenfluten

Ein Ende dieser Entwicklung ist bislang nicht absehbar. Im Gegenteil: Die Datenflut scheint sich durch Vernetzung der einzelnen Medien und die Einbeziehung der realen Welt noch zu beschleunigen. Nach Einschätzung des Verbands IDC wird die Menge der weltweit gesammelten Daten exponentiell steigen. Demnach soll das anfallende Datenvolumen im digitalen Universum bis ins Jahr 2020 gegenüber 2005 um den Faktor 300 anwachsen. Das entspricht einem Anstieg von 130 Exabytes auf 40.000 Exabytes oder 5.200 Gigabytes pro Kopf – weltweit. Kommt es so, würde sich die Datenflut von heute an durchschnittlich alle zwei Jahre verdoppeln. (Stand: 12.02.2014, Quelle: IDC Studie "The digital universe in 2020" 12/2012)

Zahlreiche Einsatzbereiche

Angesichts dieser gewaltigen Datenmassen besteht die Gefahr, vor lauter Bäumen den Wald nicht mehr zu sehen. Daher wollen Daten auch in Zukunft sinnvoll geordnet, strukturiert, analysiert und nahtlos in Abläufe integriert werden. Richtig angewendet könnten zum Beispiel Unternehmen dank Big-Data-Anwendungen ihre Verkaufsstrategien besser auf Zielgruppen einstellen. Das könnte die Produktivität und Wettbewerbsfähigkeit von Firmen steigern. Dabei sind die Anwendungsgebiete nicht nur auf die Wirtschaftswelt beschränkt. Intelligente Strassenleitsysteme könnten dynamisch auf das jeweils vorliegende Verkehrsaufkommen reagieren, um während Stosszeiten den Verkehr grossflächig flüssiger zu gestalten. In der Politik könnte das Wahlverhalten von Bürgern genauer vorhergesagt werden. Kreditkartenmissbrauch könnte leichter erkannt und vermieden werden.

Rechenpower zur Effizienzsteigerung

Das McKinsey Global Institute errechnete bereits im Juni 2011 in einer Big-Data-Studie, dass ein Einzelhändler durch den Einsatz von Big-Data-Technologien seine operative Gewinnmarge um mehr als 60 Prozent steigern könnte. Allein den Regierungen in Europa trauen die McKinsey-Experten durch Effizienzsteigerungen Einsparungen in Höhe von jährlich 100 Milliarden Euro zu. Dabei ist die mögliche Aufdeckung von Betrugsfällen, Fehlern oder Steuermindereinnahmen ausdrücklich noch gar nicht einkalkuliert. (Stand: 12.02.2014, Quelle: McKinsey Global Institute – "Big data: The next frontier for innovation, competition, and productivity" 06/2011)

Mehr als nur Software

Big Data kann Unternehmen, Behörden, Wissenschaft und anderen Bereichen einen Nutzen bringen. Unternehmen, die sich dem Big-Data-Thema verschrieben haben, bieten in erster Linie Softwarelösungen zur Analyse und Visualisierung von grossen Datenmengen an. Dabei helfen sie potenziellen Kunden oftmals auch beim Aufbau der nötigen IT-Infrastruktur, um die im Unternehmen generierten Daten effizient speichern, verwalten und nutzen zu können.

Daher treten Big-Data-Unternehmen häufig nicht nur als Software-, sondern mitunter auch als Hardware-Anbieter auf, um bei Kunden Netzwerke zum Verwalten grosser Datenmengen zu installieren. Wenn Geschäftsprozesse nach den neu gewonnenen Erkenntnissen ausgerichtet werden, erfordert dies nicht selten auch eine strategische Neuausrichtung. Bei solch einer umfassenden Optimierung können Big-Data-Unternehmen ihre Erfahrung oftmals im Stil klassischer Unternehmensberater einbringen.

Datenbasiertes Geschäftsmodell

Ein Vertreter der noch relativ jungen Branche ist das 1997 gegründete Unternehmen Tibco Software, das im kalifornischen Silicon Valley sitzt. Tibco ist nach eigenen Angaben ein führender Anbieter von Infrastruktursoftware für Unternehmen. Unter anderem durch Echtzeit-Analyse von Kundenverhalten sollen Geschäftsprozesse verbessert und Cross-Selling-Möglichkeiten eröffnet werden. Das Geschäftsmodell des Wettbewerbers Splunk klingt ähnlich: Mit der hauseigenen Software, die sowohl direkt vor Ort als auch in einer Cloud laufen kann, sollen Kunden in der Lage sein, sowohl Echtzeit-Daten als auch historische Daten in grossen Mengen zu konsolidieren und zu analysieren. (Stand: 12.02.2014)

Big Data als klar abgegrenztes Anlagethema
Die beiden Unternehmen sind neben fünf weiteren Firmen Bestandteil der Solactive Big Data Total Return Indizes. Mit den UBS PERLES, die sowohl in US-Dollar (Symbol: DATAUS) als auch in Euro (Symbol: DATAEU) gehandelt werden, kann eins zu eins am jeweiligen Index partizipiert werden. Wie Tibco und Splunk haben es bislang auch die restlichen Aktien im Index eher weniger ins breite Bewusstsein von Anlegern geschafft: Actuate, Informatica, Qlik Technologies, Tableau Software und Teradata dürften hierzulande wohl nur einigen wenigen Investoren ein Begriff sein. (Stand: 12.02.2014)

Klare Indexlogik

In die engere Auswahl des Big-Data-Index kommen nach Angaben des Indexanbieters Solactive AG nur Unternehmen, die mehrere Qualitätsmerkmale erfüllen. Laut Index-Guide sollte jedes Indexmitglied als Grundvoraussetzung bereits einen signifikanten Geschäftsanteil im Big-Data-Bereich aufweisen oder gerade dabei sein, den Big-Data-Bereich aufzubauen. Dieser Bereich sollte das Potenzial haben, künftig einen nennenswerten Anteil am Unternehmensumsatz einzunehmen.

Obwohl es kein Aufnahmekriterium ist, sind die bisherigen Indexmitglieder allesamt in den USA beheimatet. Der Grund hierfür ist, dass die Indexmitglieder die Ersten waren, die die Liquiditätsansprüche zur Indexaufnahme erfüllten, indem sie eine Marktkapitalisierung von umgerechnet mindestens 50 Millionen US-Dollar und ein durchschnittliches Tageshandelsvolumen über die vergangenen drei Monate von umgerechnet mindestens 250.000 US-Dollar aufwiesen. (Stand: 12.02.2014)

Splunk (USD) seit Emission 04/2012*

Splunk notiert zwar erst seit April 2012 an der Börse, ist aber mit einem aktuellen Anteil von rund 22 Prozent derzeit das grösste Mitglied im Solactive Big Data TR Index. (Stand: 12.02.2014, Quelle: Solactive, Bloomberg)

*Bitte beachten Sie, dass vergangene Wertentwicklungen keine Indikation für künftige Wertentwicklungen sind.