Hey! Hier ist Huy, Ihr freundlicher Blogger aus der Nachbarschaft, und ich nehme Sie mit auf ein episches Abenteuer durch die weite und aufregende Welt des betreuten Lernens. Machen Sie sich bereit, die Geheimnisse verschiedener wesentlicher Algorithmen zu lüften, die dieses unglaubliche Gebiet antreiben. Der bereitgestellte Code wurde mithilfe der Programmiersprache Python implementiert, wobei die Scikit-Be taught-Bibliothek und -Module effektiv genutzt wurden.
Beginnen wir unsere Reise mit der Erkundung der Eleganz der linearen Regression. Dieser Algorithmus ist wie ein vertrauenswürdiger Kompass, der uns hilft, kontinuierliche Werte basierend auf Eingabemerkmalen vorherzusagen. Lassen Sie uns eintauchen und die Einfachheit und Leistungsfähigkeit der linearen Regression erleben!
from sklearn.linear_model import LinearRegression
# Create a linear regression mannequin
regressor = LinearRegression()
# Prepare the mannequin
regressor.match(X_train, y_train)
# Make predictions
predictions = regressor.predict(X_test)
Mit nur wenigen Codezeilen erstellen wir ein lineares Regressionsmodell und trainieren es mithilfe unserer gekennzeichneten Daten (X_train
Und y_train
) und Vorhersagen zu neuen, unsichtbaren Daten treffen (X_test
). Es ist, als hätte man einen Führer, der eine gerade Linie durch die Daten ziehen kann und uns dabei hilft, genaue Vorhersagen zu treffen. Das Schöne an der linearen Regression liegt in ihrer Einfachheit!
Lassen Sie uns nun die faszinierende Welt der logistischen Regression erkunden. Im Gegensatz zur linearen Regression eignet sich dieser Algorithmus perfekt für die Vorhersage binärer Ergebnisse, beispielsweise ob ein Kunde abwandert oder nicht. Machen Sie sich bereit für die Magie der logistischen Regression!
from sklearn.linear_model import LogisticRegression
# Create a logistic regression mannequin
logistic = LogisticRegression()
# Prepare the mannequin
logistic.match(X_train, y_train)
# Make predictions
predictions = logistic.predict(X_test)
Indem wir ein logistisches Regressionsmodell auf unseren gekennzeichneten Daten trainieren, erschließen wir die Möglichkeit, binäre Ergebnisse vorherzusagen. Es ist, als hätte man einen Detektiv, der die zugrunde liegenden Muster in den Daten entschlüsselt und uns dabei hilft, festzustellen, ob ein Kunde abwandern wird oder nicht. Die logistische Regression glänzt wirklich im Bereich der binären Klassifikationen!
Lassen Sie uns nun in das Reich der k-nächsten Nachbarn (KNN) eintauchen, einem Algorithmus, der auf der Kraft der Nähe beruht, um Vorhersagen zu treffen. Lassen Sie sich von seiner Einfachheit und Wirksamkeit überraschen!
from sklearn.neighbors import KNeighborsClassifier
# Create a KNN classifier
knn = KNeighborsClassifier()
# Prepare the classifier
knn.match(X_train, y_train)
# Make predictions
predictions = knn.predict(X_test)
Mit Hilfe eines KNN-Klassifikators können wir die Klasse eines Datenpunkts identifizieren, indem wir seine Nachbarpunkte berücksichtigen. Es ist, als hätte man einen freundlichen Nachbarn, der uns anhand der Klassen seiner nächsten Nachbarn sagt, zu welcher Klasse ein neuer Datenpunkt gehört. KNN rückt die Kraft der Nähe in den Vordergrund unserer Vorhersagen!
Stellen Sie sich vor, Sie stehen vor der Aufgabe, anhand der Kaufhistorie vorherzusagen, ob ein Kunde abwandern wird. Fürchte dich nicht, mein Freund, denn Entscheidungsbäume sind hier, um den Tag zu retten! Diese bemerkenswerten Algorithmen treffen Vorhersagen, indem sie eine baumartige Struktur auf der Grundlage verschiedener Merkmale durchlaufen. Lassen Sie uns eintauchen und die Magie in Aktion sehen!
from sklearn.tree import DecisionTreeClassifier
# Create a choice tree classifier
classifier = DecisionTreeClassifier()
# Prepare the classifier
classifier.match(X_train, y_train)
# Make predictions
predictions = classifier.predict(X_test)
Mit nur wenigen Codezeilen erstellen wir einen Entscheidungsbaumklassifikator und trainieren ihn mithilfe unserer gekennzeichneten Daten (X_train
Und y_train
) und Vorhersagen zu neuen, unsichtbaren Daten treffen (X_test
). Es ist, als hätte man einen persönlichen Wahrsager, der anhand seiner Kaufhistorie vorhersagen kann, ob ein Kunde abwandern wird oder nicht. Ziemlich magisch, oder?
Manchmal reicht ein einzelner Entscheidungsbaum einfach nicht aus. Dann wenden wir uns den mächtigen Zufallswäldern zu! Diese Algorithmen stellen ein Workforce von Entscheidungsbäumen zusammen, von denen jeder eine einzigartige Perspektive hat, um ein leistungsstarkes Ensemble zu schaffen, das genaue Vorhersagen trifft. Machen Sie sich bereit für die Großartigkeit, die Sie erwartet!
from sklearn.ensemble import RandomForestClassifier
# Create a random forest classifier
forest = RandomForestClassifier(n_estimators=100)
# Prepare the classifier
forest.match(X_train, y_train)
# Make predictions
predictions = forest.predict(X_test)
Durch die Erstellung eines Random-Forest-Klassifikators mit mehreren Entscheidungsbäumen (n_estimators=100
) nutzen wir die kollektive Weisheit des Waldes. Es ist wie ein Rat von Weisen, die sich gegenseitig beraten, um uns möglichst genaue Vorhersagen zu liefern. Die Kraft der Teamarbeit ist wirklich magisch!
Lassen Sie sich von der Eleganz und Präzision von Assist Vector Machines (SVMs) überraschen. Diese Algorithmen zeichnen sich dadurch aus, dass sie mit bemerkenswerter Genauigkeit Grenzen zwischen verschiedenen Klassen erstellen. Werfen wir einen Blick darauf, wie sie ihre Magie entfalten!
from sklearn.svm import SVC
# Create a help vector machine classifier
svm = SVC()
# Prepare the classifier
svm.match(X_train, y_train)
# Make predictions
predictions = svm.predict(X_test)
Mit Hilfe eines Assist-Vector-Machine-Klassifikators können wir Grenzen im Datenraum ziehen und verschiedene Klassen mit Finesse trennen. Es ist, als hätte man einen Künstler, der behutsam Grenzen setzt und sicherstellt, dass unsere Vorhersagen so präzise wie möglich sind. Die Eleganz von Assist-Vektor-Maschinen fesselt wirklich die Fantasie!
Lassen Sie sich von der Kraft neuronaler Netze, dem Inbegriff moderner Zauberei, überwältigen. Diese Algorithmen simulieren die Komplexität des menschlichen Gehirns und ermöglichen es uns, das wahre Potenzial von Deep Studying auszuschöpfen. Tauchen wir ein in diese magische Welt!
from sklearn.neural_network import MLPClassifier
# Create a multilayer perceptron classifier
mlp = MLPClassifier()
# Prepare the classifier
mlp.match(X_train, y_train)
# Make predictions
predictions = mlp.predict(X_test)
Mit einem mehrschichtigen Perzeptron-Klassifikator erschließen wir die Magie neuronaler Netze. Diese Netzwerke bestehen aus miteinander verbundenen Knoten, die den Neuronen in unserem eigenen Gehirn ähneln. Sie lernen aus den Daten, passen sich Mustern an und treffen erstaunliche Vorhersagen. Es ist, als ob eine Armee brillanter Köpfe zusammenarbeiten würde, um die in unseren Daten verborgenen Geheimnisse zu lüften.
Auf unserer Suche nach Wissen dürfen wir die enorme Kraft der Gradientenverstärkung nicht außer Acht lassen. Diese Technik kombiniert die Stärken mehrerer schwacher Modelle, um ein robustes und genaues Ensemble zu erstellen. Lassen Sie uns gemeinsam die Wunder der Gradientenverstärkung erkunden!
from sklearn.ensemble import GradientBoostingClassifier
# Create a gradient boosting classifier
boosting = GradientBoostingClassifier()
# Prepare the classifier
boosting.match(X_train, y_train)
# Make predictions
predictions = boosting.predict(X_test)
Mit Hilfe eines Gradientenverstärkungsklassifikators erschließen wir neue Genauigkeitsebenen. Diese Technik verbessert ihre Vorgängermodelle iterativ, korrigiert deren Fehler und macht präzisere Vorhersagen. Es ist, als würde man einen Berg besteigen und ständig neue Höhen an Genauigkeit und Erkenntnissen erreichen.
Da sich unsere Reise ihrem Ende nähert, müssen wir uns der entscheidenden Aufgabe stellen, das beste Modell für unsere Bedürfnisse zu bewerten und auszuwählen. Werfen wir einen Blick darauf, wie wir die Leistung unserer Modelle beurteilen und eine fundierte Entscheidung treffen können.
from sklearn.metrics import accuracy_score, precision_score, recall_score
# Consider resolution tree classifier
decision_tree_accuracy = accuracy_score(y_test, decision_tree_predictions)
decision_tree_precision = precision_score(y_test, decision_tree_predictions)
decision_tree_recall = recall_score(y_test, decision_tree_predictions)
# Consider random forest classifier
random_forest_accuracy = accuracy_score(y_test, random_forest_predictions)
random_forest_precision = precision_score(y_test, random_forest_predictions)
random_forest_recall = recall_score(y_test, random_forest_predictions)
# ... and so forth for different fashions
Durch den Vergleich von Metriken wie Genauigkeit, Präzision und Rückruf für jedes Modell können wir eine fundierte Entscheidung darüber treffen, welcher Algorithmus für unsere spezifische Aufgabe am besten geeignet ist. Es ist so, als würden wir aus unserem magischen Arsenal das perfekte Werkzeug auswählen und so sicherstellen, dass wir die bestmöglichen Ergebnisse erzielen.
Herzlichen Glückwunsch zum Abschluss dieser epischen Reise durch die Einführung des überwachten Lernens! Wir haben lineare Regression, logistische Regression, KNN, Entscheidungsbäume, Zufallswälder, Assist-Vektor-Maschinen, neuronale Netze, Gradient Boosting und mehr untersucht. Jeder Algorithmus besitzt seine eigene einzigartige Magie, die es uns ermöglicht, Vorhersagen zu treffen, präzise Grenzen zu ziehen und verborgene Erkenntnisse in unseren Daten zu erschließen.
Mit dem Wissen über diese magischen Algorithmen und der Leistungsfähigkeit des Codes sind Sie nun bereit, sich auf Ihre eigenen Abenteuer im Bereich des überwachten Lernens einzulassen. Lassen Sie Ihrer Fantasie freien Lauf, lassen Sie sich von Ihrer Neugier leiten und entdecken Sie die Wunder, die im Reich der Daten liegen.
Viel Spaß beim Lernen! 🌟