Maschinelles Lernen: Ein Studienbereich, der es Computern ermöglicht, zu lernen und Vorhersagen oder Entscheidungen zu treffen, ohne explizit programmiert zu werden.
Überwachtes Lernen: Eine Artwork maschinelles Lernen, bei dem das Modell mithilfe gekennzeichneter Daten mit Eingabemerkmalen und entsprechenden Ausgabebezeichnungen trainiert wird, um die Zuordnung zwischen ihnen zu lernen.
Unbeaufsichtigtes Lernen: Eine Artwork maschinelles Lernen, bei dem das Modell Muster und Beziehungen in unbeschrifteten Daten ohne spezifische Ausgabebezeichnungen lernt.
Besonderheit: Eine Eingabevariable oder ein Eingabeattribut, das von einem maschinellen Lernmodell verwendet wird, um Vorhersagen oder Klassifizierungen zu treffen.
Einstufung: Eine überwachte Lernaufgabe, deren Ziel darin besteht, Eingabeinstanzen einer Reihe vordefinierter Kategorien oder Klassen zuzuordnen.
Regression: Eine überwachte Lernaufgabe, deren Ziel darin besteht, einen kontinuierlichen numerischen Wert basierend auf Eingabemerkmalen vorherzusagen.
Überanpassung: Wenn ein maschinelles Lernmodell bei Trainingsdaten eine gute Leistung erbringt, sich jedoch aufgrund von Lernrauschen oder zufälligen Schwankungen in den Trainingsdaten nicht auf neue, unsichtbare Daten verallgemeinern lässt.
Unteranpassung: Wenn ein maschinelles Lernmodell zu einfach ist oder die zugrunde liegenden Muster in den Daten nicht erfasst, was zu einer schlechten Leistung sowohl bei Trainings- als auch bei Testdaten führt.
Characteristic-Engineering: Der Prozess des Auswählens, Transformierens oder Erstellens neuer Options aus Rohdaten, um die Leistung eines Modells für maschinelles Lernen zu verbessern.
Bias-Varianz-Kompromiss: Der Kompromiss zwischen der Fähigkeit eines Modells, Trainingsdaten anzupassen (geringe Verzerrung) und auf neue Daten zu verallgemeinern (geringe Varianz). Eine zunehmende Modellkomplexität verringert die Verzerrung, kann jedoch die Varianz erhöhen.
Kreuzvalidierung: Eine Technik zur Bewertung der Leistung eines Modells durch Partitionierung der Daten in mehrere Teilmengen für Coaching und Assessments, um sicherzustellen, dass alle Datenpunkte für beide verwendet werden.
Ensemble-Lernen: Die Technik, mehrere maschinelle Lernmodelle zu kombinieren, um die Vorhersagegenauigkeit oder Verallgemeinerung zu verbessern, indem man sich die Weisheit der Masse zunutze macht.
Entscheidungsbaum: Ein baumartiges Modell, bei dem interne Knoten Options darstellen, Zweige Entscheidungen basierend auf diesen Options darstellen und Blattknoten Vorhersagen oder Klassenbezeichnungen darstellen.
Zufälliger Wald: Eine Ensemble-Lernmethode, die mehrere Entscheidungsbäume erstellt und ihre Vorhersagen durch Abstimmung oder Mittelung kombiniert.
Neurales Netzwerk: Ein Rechenmodell, das von der Struktur und Funktion des menschlichen Gehirns inspiriert ist und aus miteinander verbundenen künstlichen Neuronen besteht, die durch Coaching lernen, Aufgaben auszuführen.
Tiefes Lernen: Ein Teilgebiet des maschinellen Lernens, das sich auf die Verwendung tiefer neuronaler Netze mit vielen verborgenen Schichten konzentriert, um hierarchische Darstellungen von Daten zu lernen.
Faltungs-Neuronales Netzwerk (CNN): Eine Artwork neuronales Netzwerk, das häufig zur Bilderkennung und -verarbeitung verwendet wird und bei dem Faltungsschichten räumliche Merkmale aus den Eingabedaten extrahieren.
Wiederkehrendes neuronales Netzwerk (RNN): Eine Artwork neuronales Netzwerk, das für die Verarbeitung sequenzieller oder zeitserieller Daten durch die Einführung wiederkehrender Verbindungen entwickelt wurde, die es ermöglichen, dass Informationen über einen längeren Zeitraum hinweg bestehen bleiben.
Gradientenabstieg: Ein Optimierungsalgorithmus, mit dem die Parameter eines Modells iterativ aktualisiert werden, indem der Gradient der Verlustfunktion in Bezug auf die Parameter berechnet und in Richtung des steilsten Abfalls angepasst wird.
Regulierung: Eine Technik zur Verhinderung einer Überanpassung durch Hinzufügen eines Strafterms zur Verlustfunktion, die das Modell dazu anregt, ein Gleichgewicht zwischen der Anpassung der Trainingsdaten und dem Kleinhalten der Modellparameter zu finden.
Assist Vector Machine (SVM): Ein überwachter Lernalgorithmus, der eine Hyperebene oder einen Satz von Hyperebenen erstellt, um Datenpunkte zu trennen und in verschiedene Klassen zu klassifizieren.
Dimensionsreduktion: Der Prozess, bei dem die Anzahl der Eingabemerkmale oder -variablen in einem Datensatz reduziert wird und gleichzeitig so viele relevante Informationen wie möglich erhalten bleiben. Es trägt dazu bei, die Rechenkomplexität zu reduzieren und redundante oder verrauschte Funktionen zu entfernen.
Clustering: Eine unbeaufsichtigte Lerntechnik, die ähnliche Datenpunkte basierend auf ihren intrinsischen Eigenschaften oder ihrer Ähnlichkeit ohne vordefinierte Klassenbezeichnungen gruppiert.
Transferlernen: Eine Technik, bei der das beim Coaching eines Modells für eine Aufgabe gewonnene Wissen genutzt wird, um das Lernen oder die Leistung für eine andere, aber verwandte Aufgabe zu verbessern. Dabei werden vorab trainierte Modelle oder erlernte Darstellungen wiederverwendet.
Hyperparameter: Ein Parameter, der vor Beginn des Lernprozesses festgelegt wird und das Verhalten und die Leistung eines Algorithmus für maschinelles Lernen beeinflusst. Beispiele hierfür sind die Lernrate, die Anzahl der verborgenen Schichten und die Stärke der Regularisierung.