Was ist Big-Data-Architektur?
Big-Data-Architektur ist das logische und / oder physische Layout / Struktur, wie große Daten in einer Big Data- oder IT-Umgebung gespeichert, aufgerufen und verwaltet werden.
Es definiert logisch, wie die Big Data-Lösung funktioniert, welche Kernkomponenten (Hardware, Datenbank, Software, Speicher), Informationsfluss, Sicherheit und mehr verwendet werden.
Die Big-Data-Architektur dient in erster Linie als Schlüsselreferenz für Big Data-Infrastrukturen und -Lösungen.
Es wird von Big-Data-Designern / Architekten erstellt, bevor eine Big Data-Lösung physisch implementiert wird. Die Erstellung einer Big-Data-Architektur erfordert in der Regel ein Verständnis des Unternehmens / der Organisation und seiner Big-Data-Anforderungen.
Es bedeutet auch, vorhandene Ressourcen zu verbinden und zu organisieren, um den Bedarf an Big Data zu decken. Typischerweise besteht Big-Data-Architektur aus vier verschiedenen Ebenen:
Große Datenquellen: Der gesamte Standort, der große Datenmengen produziert.
Messaging und Storage: Die Einrichtung, in der Big Data gespeichert werden.
Big-Data-Analyse: Werkzeuge, die eine Analyse über Big Data ermöglichen.
Big Data Verbrauch / Nutzung: Benutzer / Dienste, die die analysierten Daten nutzen.