Data Science. Michael Oettinger

Data Science - Michael Oettinger


Скачать книгу
Statistik und Technik erkennbar. Aber es gibt keinen Grund, nicht zu handeln: Die Daten sind vorhanden; die mathematischen und statistischen Verfahren sind vorhanden; die Technik, auch um riesige Datenmengen bzw. Big Data auszuwerten, ist vorhanden.

      Letztendlich ist es ein Imperativ, alles daranzusetzen, Erkenntnisse aus den vorhandenen Daten zu gewinnen. Alles andere bedeutet eine Verschwendung des Geldes der Mitglieder unseres Gesundheitssystems und im extremen Fall eben auch unterlassene Hilfeleistung mit Todesfolge.

      Es lassen sich ähnlich provokante Fragen in allen Branchen finden. Ist es Verschwendung des Geldes der Eigentümer, wenn ein Chiphersteller nicht alles daran setzt, seinen Produktionsprozess durch Datenanalyse zu optimieren und den Ausschuss zu vermindern? Warum verschwendet eine Supermarktkette Lebensmittel, weil sie den Bedarf nicht nach Regeln der Data-Science prognostiziert hatte (siehe Abschnitt 6.2.6)? Warum bleibt ein Zug stehen und verursacht hohe Kosten beim Bahnunternehmen und bei den Kunden, nur weil ein Teil kaputtgeht, das vorausschauend schon hätte ausgewechselt werden können (siehe Abschnitt 6.2.2)?

      Es lassen sich, wie bereits erwähnt, in jeder Branche Hunderte vergleichbare Situationen finden, in denen mit datenanalysierenden Verfahren Verbesserungen realisiert werden können. Die Optimierungen in den einzelnen Projekten sind oft nicht umfassend und aufwändig, sondern liegen eher im unspektakulären Prozentbereich. Es reicht aber in der Regel aus, dass sich das einzelne Projekt rechnet (eine um ein Prozent erhöhte Responserate auf eine Mailingaktion kann eine Verdopplung des Gewinnes bedeuten). Hochgerechnet auf das ganze Unternehmen oder sogar auf Volkswirtschaften handelt es sich um Millionen- bzw. Milliardenbeträge – und manchmal eben auch um Tausende von Menschenleben.

      Diese Effekte können oft über unkritische Projekte erreicht werden. Die Kritik an datenanalysierenden Aktivitäten, die Persönlichkeitsrechte verletzen, das Leben von Menschen manipulieren etc. ist berechtigt und notwendig. Aber es gibt genügend Bereiche, die unkritisch sind, und es gibt keinen Grund, Aktivitäten in diesen Gebieten nicht anzugehen.

       Zweite Auflage

      In den drei Jahren seit der ersten Auflage dieses Buches haben sich insbesondere im Bereich der Softwarelösungen einige Änderungen ergeben. Bestehende Angebote haben sich weiterentwickelt, neue Lösungen kamen hinzu und wurden optimiert und manche Angebote haben an Beliebtheit verloren. Der Trend zur Cloud hat ebenso Auswirkungen auf die Anforderungen an Data-Scientisten. Dementsprechend wurden die diesbezüglichen Kapitel in der zweiten Auflage aktualisiert. Im Kapitel zum Verfahren wurden die Bereiche Ensemble-Verfahren, Entscheidungsbäume und neuronale Netze überarbeitet und ergänzt, um deren hoher Bedeutung gerecht zu werden.

      Ein Abschnitt zum Thema Deployment von Modellen wurde hinzugefügt, da die Umsetzung von Machine-Learning-Modellen in produktiven Softwareanwendungen in der betrieblichen Praxis eines der bedeutenden Themen darstellt. Zum Beispiel kann ein Credit-Scoring-Modell erst durch den Realtime-Einsatz in einem Webshop einen echten Mehrwert schaffen. Wie es ein Python-Modell aus dem Jupyter-Notebook des Data-Scientisten in die Webanwendung des Unternehmens schafft, ist dabei die zentrale Frage.

      Bei den Anwendungsbeispielen wurden die Themen autonomes Fahren und – aus gegebenem Anlass – Machine-Learning in einer Pandemie ergänzt.

      Bedanken möchte ich mich bei meiner Familie für die geistig moralische Unterstützung bei der Erstellung des Buches, bei meinen Kunden und Kollegen für den fachlichen Input durch Diskussionen und konkrete Fragestellungen und bei Torsten Haase von Mercedes Benz für die kritische Durchsicht des Manuskriptes.

       Gliederung des Buches

      Das Buch ist folgendermaßen gegliedert:

      Nach einer Einführung in Kapitel 1 orientiert sich die Gliederung des Buches am Prozess der Datenanalyse. Von der Datenquelle geht es über die verwendeten Werkzeuge und die eingesetzten Verfahren bis hin zum konkreten Vorgehen und Beispielen in der Praxis.

      Kapitel 2 beschäftigt sich mit den „Datentöpfen“ unter einer technischen Brille. Wo und wie werden die Daten bereitgestellt, die als Quelle für die Datenanalyse herangezogen werden? Konkret werden die wichtigsten Arten von Datenbanken vorgestellt:

      • Flatfiles

      • ODBC-Datenbanken

      • Data-Warehouse

      • NoSQL-Datenbanken

      • Hadoop

      • Cloud-Speicher

      In Kapitel 3 wird auf die Werkzeuge – also die Softwarelösungen – eingegangen, mit denen die Daten analysiert werden. Dabei wird zwischen den wichtigsten Sprachen (SQL, R, Python), den Data-Science-Plattformen und den Machine Learning Libraries unterschieden. Unter diesen Softwareanwendungen gibt es sowohl Open-Source- als auch kommerzielle Angebote.

      In Kapitel 4 wird auf die gebräuchlichsten Analyseverfahren eingegangen. Dabei handelt es sich um Verfahren aus den Bereichen Statistik, Mathematik, Machine Learning, künstliche Intelligenz und Computer Science. Es wird versucht, die Verfahren zu strukturieren und im Einzelnen so darzustellen, dass ein Grundverständnis für die Möglichkeiten und Grenzen des Verfahrens aufgebaut werden kann.

      Kapitel 5 wendet sich der Praxis zu und erläutert, wie Analytics-Projekte in Unternehmen oder Forschungseinrichtungen durchgeführt werden. Die bewährten Vorgehensmodelle werden vorgestellt. Außerdem wird auf das Thema Modell-Management eingegangen. Dies ist vor allem dann wichtig, wenn in größeren Teams zusammengearbeitet wird und über die Zeit eine Vielzahl von Analysemodellen erstellt, getestet, angepasst und wieder verworfen werden.

      In Kapitel 6 werden Use Cases – also Anwendungsfälle – für die besprochenen Verfahren und Techniken vorgestellt. Dabei geht es nicht nur um konkrete Einzelfälle, sondern auch um den Versuch, ein Bild über mögliche Einsatzszenarien zu geben. Die Use Cases werden vorgestellt und die Besonderheiten ausgewählter Branchen diskutiert.

      1 Vgl. Harvard Business Review

      2 Daten bereitstellen

      Data-Science bezeichnet den Prozess, durch die Analyse von Daten mit geeigneten Verfahren Erkenntnisse zu gewinnen. Die erste Frage, die sich stellt, ist diejenige nach der Quelle der Daten. Woher kommen die zu analysierenden Daten und wo und wie werden sie bereitgestellt? Im Folgenden wird auf diese Datenquellen näher eingegangen. Konkret handelt es sich dabei um:

      • Flatfiles

      • Relationale Datenbanken

      • Data-Warehouses

      • NoSQL-Datenbanken

      • Hadoop

      • Cloud-Datenbanken

      2.1 Flatfiles

      Die einfachste Form der Datenbereitstellung sind Flatfiles, also Tabellen und strukturierte Textdateien, die man aus operativen Systemen wie z. B. ERP-Systemen exportiert oder über Befragungen gewonnen hat. Die Dateien werden in unterschiedlichen Formaten zur Verfügung gestellt. Die gebräuchlichsten sind:

      • csv

      • xls

      • xml

      • produktspezifische Formate (SPSS, SAS, Stata, ARFF, DBase …)

      Bei dieser Form der Datenanalyse handelt es sich meist nicht um „Big Data“ (auch wenn die Größe der Files grundsätzlich nahezu unbegrenzt sein kann), aber dennoch spielen Flatfiles nach wie vor eine wichtige Rolle in Data-Science-Projekten. Es muss z.B. kein Zugang zur Datenbank eines Produktivsystems eingerichtet werden, was meist einen höheren Aufwand im Bereich Berechtigungen und Netzwerkzugang bedeutet. Stattdessen werden die Daten aus dem Quellsystem exportiert und dann in das Analysesystem eingelesen, wo die eigentliche Analyse bzw. Modellierung stattfindet.


Скачать книгу