Diskussion:Vernoe13 12

aus Lehrwiki, der freien Wissensdatenbank
Wechseln zu: Navigation, Suche

Big Data –Werden wir von der Datenflut überrollt?

Die primäre Zielsetzung des Datenmanagements ist es, die Beschaffung und Bereitstellung verschiedenster Daten zur Aufgabenerfüllung und Entscheidungsunterstützung zu gewährleisten (vgl. Fink, Schneidereit, Voß 2005).

Informationssysteme werden zunehmend mit immer größer werdenden Datenmengen konfrontiert, deren Tendenz steigend. Die Etablierung von mobilen Netzwerken, Cloud Computing und neuen Technologien hat zu einer deutlichen Steigerung an verwertbaren Daten geführt, welche auch als „Big Data“ beschrieben werden (vgl. Bollier 2010).

Manyika et al. (2011) beschreiben Big Data als Datenset, dessen Größe jenseits der Verarbeitungsgrenze typischer Softwaretools aktueller Datenbanken in Bezug auf Speicherung, Lagerung, Management und Analysieren geht. Dabei wird nicht eine gewisse Nummer von Terabytes genannt, an der der Begriff fest zu definieren ist. Als Definitionsmerkmal eignet sich statt der Definition einer gewissen Größe von Bytes daher die drei „Vs“, Umfang (Volume) Vielfalt (Variety) und Geschwindigkeit (Velocity) (siehe IBM)

Oracle (2012) grenzen dabei die Einsatzgebiete in drei Datentypen ein: (1) Traditionelle Unternehmensdaten. Hierzu zählen Kundeninformationen aus CRM-Systemen, transaktionale ERP-Daten, Webstore-Transaktionen und Kontodaten; (2) Maschinengenerierte Daten und von Sensoren generierte Daten. Inbegriffen sind hier Kommunikationsdatensätze, wie sie für SMS- oder WAP-Verbindungen von Mobilfunkunternehmen generiert werden, Weblogs, intelligente Zähler für Energie, Produktionssensoren oder Daten aus Handelssystemen; (3) Daten aus sozialen Netzwerken. Unter diesen Punkt fallen Daten aus Berichten zu Kundenresonanz, Micro-Blogging-Seiten wie Twitter oder Social-Media-Plattformen wie Facebook.

Die Vorteile dieser Entwicklungen liegen auf der Hand, Unternehmen stellen immer höhere Anforderungen an die Verarbeitungsgeschwindigkeit sowie die Verfügbarkeit und Aktualität der Daten. Mit den steigenden Datenmengen wird es für die Unternehmen immer wichtiger, eine hohe Datenqualität sicherzustellen. Big Data erfüllt diesen Wunsch und schafft somit in fast allen erdenklichen Marktsegmenten (Industrie, Gesundheitswesen, Wissenschaft) Wettbewerbsvorteile.

Doch sollte man nicht nur die Chancen betrachten, sondern sich stets auch die Risiken vor Augen halten. Denn mit dem Übergang zur Informationsgesellschaft, stellt sich gleichzeitig die Frage nach den gesellschaftlichen Veränderungen. Nicht nur im beruflichen Umfeld, sondern nahezu in allen Lebensbereichen sind wir mit den entsprechen enden Systemen und ihren Auswirkungen konfrontiert. Letztendlich kann man wahrscheinlich von einer annähernden vollständigen Durchdringung unseres Lebens mit Computern ausgehen. Man spricht daher schon von „Pervasive Computing“.(vgl. Fink, Schneidereit, Voß 2005). Neben dem Volumen der Datenverarbeitung wächst allerdings auch die Zahl der Quellen. Wurden früher hauptsächliche von Transaktionssystemen strukturierte Daten produziert, kommen heute viele weiter Quellen hinzu wie beispielsweise Social Networks. Momentan stellt sich sogar die Frage ob der ursprüngliche Begriff „Auftragsverarbeitung“ heute nicht bereits viel zu kurz greift um die Einsatzgebiete von Big Data ausreichend zu erfassen.

Das größte Argument gegen den Einsatz von Big Data ist daher das Problem der Kontrollierbarkeit, der Überschaubarkeit, sowie das mögliche Ausgeliefertseins gegenüber den Systemen. Die Auswertung systemübergreifender Daten lässt die Anwender und Konsumenten durchschaubar werden. Ganz zu schweigen von rechtlichen Fragen im Zusammenhang mit Datenschatz oder mit Urheberrechten. Den Nutzern ist die Gefahr völlig unbewusst, die Herausgabe ihrer persönlichen Daten bereits Alltag und Normalität. Es wird kein Gedanke dran verschwendet, wenn Informationen über Bonität oder medizinische Behandlungen aus der Internetnutzung zusammen geführt werden und diese missbraucht oder sogar manipuliert werden. (Thilo Weichert (schleswig-holsteinische Datenschutzbeauftragte)).

Letztendlich werden Zeit und Erfahrung zeigen, ob Big Data die bestmögliche Lösung bei der Ausschöpfung von Businessdaten darstellt. Heute ist die Akzeptanz dieser Systeme deutlich zu merken. Vermutlich ist Big Data erst der Anfang, denn die Menge der anfallenden Daten wird weiter drastisch wachsen. Grenzen sind zum heutigen Zeitpunkt nicht erkennbar. Daher steht die Politik in der Verantwortung und es müssen zwingend klare Rahmenbedingungen geschaffen werden.

Hier sollte man unbedingt das Problem der Internationalisierung nicht außer Acht lassen. Denn dem relativ hohen Datenschutzniveau in Deutschland und der EU stehen oft weniger restriktive Regelungen gegenüber.(vgl. Grundlagen der Wirtschaftsinformatik (2005) Fink, Schneidereit, Voß). Trotz alle Kritik und Skepsis ist Big Data ein nützliches Werkzeug, bei dessen Verwendung jedoch die Verantwortung jedes Einzelnen gefordert ist.


Quellen:

- Grundlagen der Wirtschaftsinformatik (2005) Fink, Schneidereit, Voß

- http://www.computerwoche.de/a/big-data-die-datenflut-steigt,2500037

- http://trends-in-der-it.de/downloads/Buch%20trends%20in%20der%20IT%20Final.pdf#page=44

- http://www.heise.de/newsticker/meldung/Big-Data-Gefahr-fuer-die-Demokratie-und-oekonomische-Chance-1826201.html

- Oracle: Big Data for the Enterprise, Oracle White Paper, Januar 2012

- Bollier, D.: The Promise and Peril of Big Data, The Aspen Institute, 2010

- Manyika, J. et al.: Big data: The next frontier for innovation, competition, and productivity, McKinsey Global Institute, 2011


23.06.2013, Matrikelnummer [6232640]