Übersicht aller wichtigen Machine-Studying-Algorithmen.
- Algorithmen für maschinelles Lernen ermöglichen es Computern, aus Daten zu lernen und Vorhersagen oder Entscheidungen zu treffen.
- Sie können in überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen eingeteilt werden.
Regression: Prognostiziert eine kontinuierliche Ausgabevariable basierend auf Eingabemerkmalen.
- Lineare Regression
- Polynomielle Regression
- Unterstützen Sie die Vektorregression
- Entscheidungsbaum-Regression
- Zufällige Waldregression
- Gradientenverstärkende Regression
Klassifizierung: Weist Eingabedaten diskreten Kategorien oder Klassen zu.
- Logistische Regression
- Naiver Bayes
- Okay-Nächste Nachbarn (KNN)
- Entscheidungsbäume
- Zufällige Wälder
- Assist Vector Machines (SVM)
- Gradientenverstärkende Klassifikatoren
- Neuronale Netze (Deep Studying)
Clustering: Gruppiert ähnliche Datenpunkte basierend auf ihren Eigenschaften.
- Okay-Means-Clustering
- Hierarchisches Clustering
- DBSCAN
- Gaußsche Mischungsmodelle (GMM)
Dimensionsreduktion: Reduziert die Anzahl der Eingabefunktionen und behält gleichzeitig wichtige Informationen bei.
- Hauptkomponentenanalyse (PCA)
- Singularwertzerlegung (SVD)
- t-verteilte stochastische Nachbareinbettung (t-SNE)
Lernen von Assoziationsregeln: Identifiziert Beziehungen und Muster in Daten.
- Apriori-Algorithmus
- Eclat-Algorithmus
- Q-Studying: Erlernt eine optimale Richtlinie durch Versuch-und-Irrtum-Interaktionen mit einer Umgebung.
- Tiefe Q-Netzwerke (DQN): Kombiniert Q-Studying mit tiefen neuronalen Netzen.
- Richtliniengradientenmethoden: Optimiert Richtlinien durch direkte Optimierung der erwarteten Belohnung.
Absacken: Konstruiert mehrere Modelle unter Verwendung unterschiedlicher Teilmengen der Trainingsdaten und kombiniert ihre Vorhersagen.
- Zufällige Wälder
Erhöhen: Erstellt Modelle iterativ und verleiht falsch klassifizierten Instanzen mehr Bedeutung.
- AdaBoost
- Steigungsverstärkung
Stapeln: Kombiniert Vorhersagen aus mehreren Modellen mithilfe eines anderen Modells, das als Meta-Learner bezeichnet wird.
- Feedforward-Neuronale Netze
- Faltungs-Neuronale Netze (CNN)
- Wiederkehrende neuronale Netze (RNN)
- Langes Kurzzeitgedächtnis (LSTM)
- Generative Adversarial Networks (GAN)
- Genauigkeit, Präzision, Rückruf, F1-Rating (zur Klassifizierung)
- Mittlerer quadratischer Fehler, mittlerer quadratischer Fehler (für Regression)
- Silhouette Rating (für Clustering)
- Belohnung, Erfolgsquote (für verstärkendes Lernen)
- Algorithmen des maschinellen Lernens bieten eine breite Palette an Techniken zur Lösung verschiedener Aufgaben.
- Das Verständnis der Eigenschaften und geeigneten Anwendungsfälle verschiedener Algorithmen ist entscheidend für den erfolgreichen Einsatz in realen Szenarien.
- Die Auswahl des Algorithmus hängt von der Artwork des Issues, den verfügbaren Daten und dem gewünschten Ergebnis ab.