Die immer größeren Datenmengen, welche in Unternehmen vorherrschen und anhand derer sie ihre künftige Geschäftsentwicklung ausrichten, gewinnen immer mehr an Bedeutung. Doch wie gehen die Unternehmen mit dieser Entwicklung um?

Big Data – eine Begriffsannäherung

Was umfasst der Begriff Big Data eigentlich? Big Data bezeichnet die Speicherung, Verarbeitung und Analyse von enormen Datenmengen. Diese Datenmengen bestehen aus strukturierten und unstrukturierten Daten. Darüber hinaus sind diese oftmals so groß, dass sie mit einer herkömmlichen Hard- und Software nicht mehr zu verarbeiten sind. Deshalb wird spezielle Hard- und Software benötigt, die in einem Zusammenschluss von vielen, untereinander kommunizierenden Rechnern arbeitet und diese Problematik löst. Es geht u. a. um Rasterfahndung, (Inter-)Dependenzanalyse, Umfeld- und Trendforschung sowie System- und Produktionssteuerung. Das weltweite Datenvolumen ist derart gewachsen, dass bis dato nicht gekannte Möglichkeiten eröffnet werden. Und was zählt, ist das, was Unternehmen mit den Daten machen.

Warum ist Big Data so wichtig?

Laut einer Studie von Bitkom wächst in neun von zehn Unternehmen das Datenvolumen innerhalb eines Jahres durchschnittlich um 22 Prozent. Es heißt also, Daten seien für Unternehmen das neue Öl. Durch die zunehmende Vernetzung des Lebens fallen an vielen verschiedenen Stellen neue Datenpunkte für die Speicherung an. Jeder Einkauf, jeder Besuch auf einer Social-Media-Plattform oder jeder Prozess in einer Produktionsstraße hinterlässt viele Daten. Und da in allen Unternehmen mit mehr oder weniger komplexen Geschäftsprozessen Unmengen an Daten anfallen, ist es an der Zeit, Data Science in Verbindung mit Data Analytics als eine große Chance anzusehen. Das Analysieren dieser Daten bringt eine Vielzahl an positiven Effekten mit sich wie bspw. eine effizientere Marktforschung, Anpassung der Online-Werbemaßnahmen oder die Erschließung neuer Geschäftsfelder.  

Hierfür benötigt man hoch qualifiziertes Fachpersonal wie bspw. den „Data Engineer“ oder den „Data Scientist“, welcher ein tiefes Verständnis dafür mitbringt, was sich aus diesen Informationen herauslesen lässt und wie sich die Daten gewinnbringend nutzen lassen.

Welche Aufgaben haben Data Engineers und Data Scientists und in welchen Branchen werden sie gebraucht?

Ein Data Engineer ist verantwortlich für alle Prozesse rund um die Generierung, Speicherung, Pflege, Aufbereitung, Anreicherung und Weitergabe von Daten. Diese Tätigkeiten bilden die Grundlage für Big-Data-, Data-Warehouse- und Analyseprojekte im Kontext von Data Science. Innerhalb dieses Aufgabenbereiches werden Datenbanken sowohl modelliert als auch skaliert, um letztlich den Datenfluss innerhalb eines Unternehmens sicherzustellen.

Die Einsatzmöglichkeiten sind flexibel. Vor allem im Maschinen- und Anlagenbau, in der Automobilbranche oder der Chemieindustrie ist das Fachpersonal stark nachgefragt. Aber auch in der öffentlichen Verwaltung und im Marketing werden Datentechniker immer wichtiger.

 

 

Ein Data Scientist agiert hingegen als Schnittstelle zwischen dem Wissenschaftsbereich Mathematik und Informatik-Fachwissen. Er arbeitet daran, aus unstrukturierten Rohdaten eine strukturierte Datenbasis zu schaffen, diese zu analysieren und letztlich mit seinem betriebswirtschaftlichen Know-how eine Entscheidungsgrundlage für ein Unternehmen zu schaffen.

Gesucht wird ein Data Scientist überall dort, wo große Datenmengen generiert werden. Unternehmen haben ein Interesse daran, aus vorhandenen Daten zu lernen und bestehende Prozesse zu optimieren. Zentrale Einsatzgebiete sind u. a. der E-Commerce und die gesamte Online-Industrie.

Welche Skills benötigen ein Data Engineer und ein Data Scientist?

In Deutschland besteht derzeit noch nicht die Möglichkeit, Data Engineering als Studiengang zu belegen. Aus diesem Grund ist dies ein Berufszweig für klassische Quereinsteiger. Anhand des Aufgabenbereiches lassen sich folgende Fähigkeiten für einen Data Engineer ableiten:

  • Relationale Datenbanken
  • ETL-Tools
  • Big-Data-Technologien (Apache Spark, Hadoop oder andere No-SQL-Datenbanken)
  • Cloud-Technologien wie AWS S3

 

Ein Data Scientist hingegen schließt üblicherweise ein Studium in Informatik, Mathematik/Statistik, Physik oder Ingenieurwissenschaften ab. Er startet in der Regel als Generalist und hat die Möglichkeit, sich mit zunehmender Berufserfahrung auf einzelne Anwendungsfelder zu spezialisieren. Zum Ausüben dieses Berufes sind folgende Skills notwendig:

  • Machine Learning
  • Deep Learning
  • Programmiersprachen (SQL, R, Python, Java, SPARK)
  • Kommunikationsstärke
  • Analytische Fähigkeiten
  • Kreativität

 

Benötigt auch Ihr Unternehmen dringend Expertise im Bereich Data Science und Data Engineering? Sprechen Sie uns gerne an.

Über Benjamin Bischoff

Benjamin Bischoff absolvierte sein Studium im Bereich Management & Economics in Stuttgart mit einer integrierten Praxisphase bei der Daimler AG. Nach seinem Studium startete er im IT-Vertrieb bei einem mittelständischen Unternehmen in Reutlingen.

Seit 2014 ist er bei der Hays AG im IT Contracting am Standort Stuttgart tätig und nun seit mehreren Jahren Senior Teamleiter. Aktuell verantwortet Benjamin Bischoff ein Team von 12 Mitarbeitern im Bereich Digital Technology & Engineering.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Weitere Artikel