Scikit Learn Schulung für maschinelles Lernen mit Python
Scikit-Learn ist ein mächtiges Python-Paket für maschinelles Lernen.
Der Scikit-Learn-Kurs richtet sich an Ingenieure, Datenanalysten,
Marketing-Experten, Berater, die Algorithmen des maschinellen Lernens für Software
verwenden wollen,
die von Daten selbständig lernt und dann im laufenden Betrieb Ereignisse vorhersagt.
Nach dem Kurs werden die Teilnehmer in der Lage sein, sehr mächtige, moderne
Vorhersagemodelle mit relativ wenig Code-Zeilen zu erstellen und produktiv einzusetzen.
Der Kurs setzt
Grundkenntnisse in Python voraus. Kenntnisse in linearer Algebra und Differenzial-Rechnung
sind nützlich aber nicht zwingend erforderlich.
Der Übungsanteil beträgt 50%-60%. Ein Trainer kommt auf 1 bis 9 Kursteilnehmer und hilft
ihnen individuell.
Der Kurs behandelt die grundlegende Funktionsweise der drei bis vier besten Algorithmen in
Scikit-Learn.
Ansonsten liegt der Fokus auf den Grundprinzipien und Werkzeugen von Scikit-Learn,
die für die
erfolgreiche Anwendung auf praktische Probleme notwendig sind. Die Themen im Detail:
1) Numpy
- Ein ndarray erstellen.
- Auf Array-Elemente zugreifen.
- Array - Slicing.
- Elementweise Operationen.
- Attribute von ndarray.
- Reshape eines ndarray.
- Fortgeschrittenes Indexieren.
- Über ein ndarray iterieren.
- Die numpy.where Funktion.
- Wichtige ndarray-Methoden.
- numpy mathematische Funktionen.
- Mit NaN und infinite Zahlen umgehen.
2) Supervised Learning - Grundlagen
- Lineare Regression
- Messen der Qualität eines Vorhersagemodells.
- Die sklearn.model_selection.train_test_split() Routine.
- Methoden, um die relevanten Features zu finden.
- Visualisierung der Interaktion von Variablen mit seaborn.
- Hauptmethoden von sklearn Predictor Instanzen.
- Qualitätsmessung mit der cross_val_score() Funktion.
- Logistische Regression.
- sklearn.preprocessing.LabelEncoder
- Predictors und Transformers interagieren mit Pandas.
- Qualitäts-Metriken für Modelle.
- Visualisierung der learning-curve.
4) Analysetechniken, Anti-Overfitting-Techniken
- Regularisierung, um Overfitting zu vermeiden.
- Evaluierung von Klassifikationsmodellen.
- Visualisierung der Qualität von Klassifikationsmodellen.
- Feature Engineering.
5) Support-Vektor-Maschinen
- Support-Vektor-Classifiers.
- sklearn.svm package’s SVC Predictors.
- Support-Vektor-Regression.
- Wie man gute Modell-Parameter findet. GridSearchCV und ähnliche Klassen.
- Principal Components Transformer.
- Space Density Transformer.
- Pipelines.
- Nicht-numerische in numerische Daten transformieren.
- Scikit-Learn Transformers.
- Das Modul to_numeric_frame.
7) Entscheidungsbäume, Random Forests, GradientBoost
- Entscheidungsbäume für Klassifikation.
- Entscheidungsbäume für Regression.
- RandomForrest.
- GradientBoost und andere Ensemble-Methoden.
- ScikitLearn-Modelle speichern und wieder laden.
8) Unsupervised Learning
- Clustering.
- k-means-clustering.
- Die Elbow-Methode.
- Mean shift clustering.
Zu jedem der obigen Kapitel gibt es eine oder mehrere Übungseinheiten. Kursdauer: 5 Tage.
Auf Wunsch kann dieser Kurs auch mit anderen Kursen kombiniert oder gekürzt gehalten werden mit Dauer zwischen 2 und 5 Tagen. Beliebt ist die Kombination mit dem Keras-Tensorflow-Kurs
oder dem Python-Kurs. Inhouse und online bieten wir Schulungen auch an.
Wenn Sie Interesse an diesem Kurs haben, schicken Sie uns eine Nachricht,
da wir die Kurse dynamisch je nach Nachfrage planen.
Unsere Kurse haben ein sehr gutes Preis-Leistungsverhältnis. (Preisliste).