In diesem Jahr wird Big Data die Entwicklungslabore verlassen und sich auf breiter Front bei den Unternehmen durchsetzen, prophezeit Oracle in einem Thesenpapier. Zehn Trends prägen die Entwicklung 2016.
In seinem Big-Data-Blog verlinkt Oracle auf ein PDF, das unter dem Titel Enterprise Big Data Predictions 2016 einen Ausblick auf die Veränderungen bei der Nutzung von Big Data gibt. Die Autoren stellen zehn Trends vor, die sich in drei großen Gruppen zusammenfassen lassen: Erstens wird Big Data einfacher und die Zahl der Nutzer wächst stark, zweitens gibt es bedeutende technische Fortschritte, und das wird drittens stärkere Auswirkungen auf Gesellschaft, Politik und Geschäftsprozesse haben.
Big Data wird Allgemeingut
- Der Zugriff auf Big Data ist nicht mehr auf Spezialisten beschränkt. Neue, vereinfachte Tools erlauben es auch normalen Analysten, auf die Datenbestände von Hadoop-Clustern zuzugreifen und sie für ihre Zwecke zu nutzen. Einfache Selbstbedienung wird der Zugriffsmodus, was wiederum verbesserte Voraussagen nach sich zieht.
- Mit der Zahl der Hypothesen, die anhand von Big Data überprüft werden sollen, steigt auch die Nachfrage nach professionellen Datenanalysten. So wird etwa der Finanzsektor versuchen, effektivere Algorithmen für die Einschätzung von Risiken zu entwickeln.
Technische Fortschritte
- Die ersten Nutzer von Big Data mussten noch eigene Big-Data-Cluster und -Umgebungen aufbauen, was sechs Monate oder länger dauern konnte. Dank neuer Cloud-Services und vorkonfigurierter Appliances wird diese Zeitspanne deutlich verkürzt.
- An die Stelle der heute genutzten Vielzahl von Algorithmen, Analysen und Anwendungen tritt ein standardisierter Zugriff auf virtualisierte Daten via SQL, REST und andere Skriptsprachen.
- Die manuell programmierte Datenverarbeitung der ersten Generation wird durch neue, verbesserte Verwaltungswerkzeuge sowie eine datenstromorientierte Programmierung überflüssig gemacht. Letztere nutzt eine Parallelverarbeitung von Daten, erleichtert die Wiederverwendung von funktionalen Operatoren und bietet Funktionen für statistische Auswertungen und maschinelles Lesen.
- Bei der Datenverarbeitung wird zunehmend künstliche Intelligenz genutzt, vor allem in Form von maschinellem Lesen, automatischer Texterkennung und graphenorientierten Datenbanken.
- Data-Lineage, also die Bestimmung der Herkunft und Entstehung von Datensätzen, wird für die Unternehmen zur Pflicht werden. Nur so können sie die Ergebnisse von Analysen einschätzen, die auf Basis von mehreren Datensätzen unterschiedlicher Qualität entstanden sind.
- IoT-Cloud-Services für Big Data treiben die weitere Verbreitung des Internets der Dinge voran. Sie vereinfachen die Erfassung und Analyse von Sensordaten und führen zur Entwicklung neuer Produkte, die auf Basis von Datenanalysen selbstständig Aktionen ausführen.
Auswirkungen auf Politik und Gesellschaft
- Wenn Regierungen einfach ermitteln können, aus welchem Land bestimmte Daten stammen, fällt es ihnen leichter, nationale Vorschriften zur Nutzung durchzusetzen. International tätige Firmen sind daher zunehmend gezwungen, eine Hybrid-Cloud-Strategie zu verfolgen und parallel zu ihren weltweit verfügbaren Services auch regionale Rechenzentren und Angebote aufzubauen, um den jeweiligen Compliance-Regeln gerecht zu werden.
- Datenschutz und Datenschutz rücken in den Fokus: Das Bewusstsein darüber, wie Daten gesammelt, geteilt, gespeichert, aber auch gestohlen werden, steigt, und in der Folge mehren sich Forderungen nach einer Regulierung des Zugriffs auf persönliche Informationen. Firmen entwickeln Klassifikationssysteme mit vordefinierten Richtlinien für den Zugriff, die Weitergabe und den Schutz von Datensätzen. Aufgrund immer ausgefeilterer Hackertechniken sind sie zudem gezwungen, die Sicherheitsmaßnahmen zu verschärfen und gleichzeitig den Zugriff auf und die Verwendung ihrer Daten kontinuierlich zu überwachen.