Big Data in der Fussball Bundesliga


„Um die Analyse der Spielerperformance zu unterstützen, entwickeln Anbieter und Verein eine Analyselösung, die mit Geodaten arbeitet, welche über Sensoren an Spielern und Spielgeräten ermittelt und über die In-Memory-Funktionen von „Hana“ verarbeitet werden. Schienbeinschoner, Trainingskleidung und der Ball selbst sind bei TSG 1899 Hoffenheim mit speziellen Sensoren ausgestattet. Darüber erhält der Club große Mengen an verwertbaren Daten aus jedem Training, die mittels der Anbieterlösung gespeichert, verarbeitet und analysiert werden können.“ via: it-director.de
Unter Big Data versteht Wikipedia „große Datenmengen aus vielfältigen Quellen, die mit Hilfe neu entwickelter Methoden und Technologien erfasst, verteilt, gespeichert, durchsucht, analysiert und visualisiert werden können.“ 
Da die Datenmengen so immens gross sind, sind klassische relationale Datenbanksysteme oder Statistik- und Visualisierungsprogramme nicht in der Lage, sie zu verarbeiten.Big Data benötigen somit so eine neue Art von Software, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet und die verteilten Datenpakete verwaltet. Die Idee hinter Big Data ist somit eine verteilte Ablage und eine verteilte Bearbeitung von Daten. Die Herausforderung dabei ist das Gewährleisten der Datenintegrität, d. h. es muss sichergestellt sein, dass die Daten und Analyseergebnisse korrekt abgelegt und übertragen werden. Der wissenschaftliche Dienst des Bundestages schreibt dazu:
„Daten sind heute im Wesentlichen durch drei Charakteristika gekennzeichnet, die ihren englischen Bezeichnungen zufolge als die „drei Vs“ bezeichnet werden. Dabei handelt es sich zum einen um die Datenmenge (Volume), die durch die fortschreitende Digitalisierung praktisch aller Bereiche des modernen Lebens in unvorstellbar großen Quantitäten produziert wird und sich etwa alle zwei Jahre verdoppelt. So wurden Schätzungen zufolge in diesem Jahr (2013) bereits über 2 Trilliarden Bytes an Daten weltweit gespeichert – was auf iPads gespeichert und gestapelt eine 21.000 km lange Mauer ergäbe. Ein weiteres Charakteristikum heutigen Datenverkehrs ist seine Geschwindigkeit (Velocity): Während früher Daten in bestimmten Abständen anfielen, die es erlaubten, sie nach und nach zu verarbeiten, ist man heute aufgrund von Vernetzung und elektronischer Kommunikation dem Datenfluss ununterbrochen ausgesetzt. Um sie nutzen zu können, müssen die einlaufenden Informationen immer schneller oder sogar in „Echtzeit“ aufgenommen und analysiert werden. Das dritte wichtige Merkmal ist die unterschiedliche Beschaffenheit (Variety) der heute in so vielfältig und komplex strukturierten Quellen wie z.B. sozialen Netzwerken, Fotos, Videos, MP3-Dateien, Blogs, Suchmaschinen, Tweets, Emails, Internet-Telefonie, Musikstreaming oder Sensoren „intelligenter Geräte“ vorkommenden Daten.“ via: bundestag.de

Kommentar veröffentlichen

About This Blog

  © Blogger template Shush by Ourblogtemplates.com 2009

Back to TOP