Big Data – ein Thema für Anbieter von alternativen Assets?

Big Data mal ein anderes Thema in meinem Blog. In Bonn fand heute (24.06.2013) der BITKOM BIG Data Summit 2013 statt. Big Data, wie ich den Aussagen der Experten entnommen habe, ein eher unglücklich gewählter Begriff, da er die Erwartungen auf das Datenvolumen lenkt. Aber Big Data ist mehr. Der BitKom definiert Big Data als:

den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens.

In der digitalen Welt spricht man schon von Daten als vierter Produktionsfaktor neben Kapital, Arbeitskraft und Rohstoffe.

Du kannst Dich direkt beim BitKom über das Thema informieren. Die aktuellste Broschüre: „Management von Big-Data-Projekten“ steht zum Download bereit.

Mein Ziel war es, zu sehen, inwiefern das Thema für meine Kunden aus dem Bereich Finanzdienstleistung interessant sein könnte. Die Antwort ist ja, für die größeren Anbieter im Bereich alternative Assets könnte das Thema insbesondere hinsichtlich des Themas Risikomanagement und Bewertung sehr interessant sein. Auch die Möglichkeit eine breite Vielfalt an vorhandenen Daten, egal ob strukturiert, semi-strukturiert oder unstrukturiert nunmehr in einer Datenbank ablegen zu können, bietet ungeahnte Möglichkeiten für die Prognosen über die zukünftige Entwicklung des Portfolios oder die Entwicklung von Branchen.

Wie eingangs erwähnt ist Big Data nämlich nicht nur Datenmenge (Volume), sondern auch die Verarbeitung der Datenvielfalt (Variety), Geschwindigkeit (Velocity) und Analyse. Abgeleitet von den englischen Begriffen spricht man auch von den 3 V’s + Analytics. Ggf. kann man auch noch die Abbildung der hohen Komplexität als weitere Facette von Big Data sehen. 

Die hochperformanten Datenbanken erlauben Auswertungen in Echtzeit. Als größte Schwierigkeit wird die mangelnde Verfügbarkeit von Fachkräften für die Analyse gesehen. Die Speicherung von Daten unterschiedlichster Couleur bedingen eine neue Herangehensweise, die nicht wie früher auf dem klassischen Ansatz These – Begründung – Beweis aufbaut, sondern eine automatische Analyse von Daten erlaubt, welche ggf. neue, bisher nicht bekannte Korrelationen herausstellt und so eine ganz neue Sicht auf Dinge ermöglicht. Bisher durch die IT auferlegte Restriktionen können so  gesprengt werden. Keine Angst, der Mensch wird nicht ersetzt.  Der höherwertige  Content bringt bessere Informationen. Die Erkenntnisse daraus müssen aber immer noch selber gezogen werden. 

Die bekannteste Datenbank, die immer wieder mit dem Thema Big Data in Zusammenhang gebracht wird ist Hadoop. Diese kann sogar im Sandbox-Betrieb von Dir getestet werden.

Ich finde, ein hoch spannendes Thema. Bei der Gelegenheit möchte ich der BITKom und dem BMWi als Schirmherren, den Moderatoren und Referenten sowie der Deutschen Telekom für die gelungen Veranstaltung danken.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Sicherheitsabfrage * Time limit is exhausted. Please reload.