Help Vector Machines (SVMs) sind eine Artwork überwachter Lernalgorithmus, der zur Klassifizierung und Regressionsanalyse verwendet wird. SVMs sind besonders nützlich bei der Arbeit mit komplexen Datensätzen mit hochdimensionalen Merkmalsräumen und wurden erfolgreich in einer Vielzahl von Anwendungen eingesetzt, darunter Bildklassifizierung, Verarbeitung natürlicher Sprache und Bioinformatik.
Um SVM zu erklären, habe ich dieses Thema in 10 Unterthemen unterteilt. Ich werde in diesem Artikel nur die ersten fünf Unterthemen behandeln und den Relaxation in meinem nächsten kommenden Artikel behandeln.
- Was ist SVM?
- Gleichung einer Linie.
- Abstand eines Punktes von einer Ebene.
- Geometrische Instinct hinter SVM.
- Harter und weicher Rand.
- SVM Mathematische Instinct.
- Kostenfunktion
- Help Vector Regression (SVR)
- SVM-Kernel
- Typ der SVM-Kernel
Was ist SVM?
SVMs basieren auf der Idee, die Hyperebene zu finden, die zwei Klassen in einer Klasse trennt. In einem zweidimensionalen Merkmalsraum ist die Hyperebene eine Linie, die die beiden Klassen trennt. In höheren Dimensionen ist die Hyperebene eine Ebene. Das Ziel von SVMs besteht darin, die Hyperebene zu finden, die den Abstand zwischen zwei Klassen maximiert.
SVMs können sowohl Klassifizierungs- als auch Regressionsprobleme lösen.
- Klassifizierung → Help Vector Classifier (SVC)
- Regression → Help Vector Regressor (SVR)
Liniengleichung
Die Gleichung einer Geraden wird üblicherweise wie folgt geschrieben:
y = mx + c
wobei m = Steigung der Geraden und c der y-Achsenabschnitt ist.
- Neigung: Die Steigung einer Geraden sagt uns mit der Einheitsbewegung in der unabhängigen Variablen (x), wie groß die Bewegung in der abhängigen Variablen (y) ist.
- Abfangen: Wenn der Wert der abhängigen Variablen (x) Null ist, wird der Punkt, an dem die am besten angepasste Linie die y-Achse trifft, als Schnittpunkt bezeichnet.
Die Geradengleichung kann auch wie folgt geschrieben werden:
Es kann auch geschrieben werden als:
Gleichung einer durch den Ursprung verlaufenden Geraden:
Abstand eines Punktes von einer Ebene
Im Bild unten haben wir eine Ebene A und w ist ein Vektor senkrecht zur Ebene A. P1 und P2 sind zwei Punkte. Der Abstand von Punkt P1 von der Ebene A beträgt d und der Abstand von Punkt P2 von der Ebene A beträgt d‘.
Da w und P1 auf derselben Seite der Ebene liegen und senkrecht zueinander stehen, ist der Winkel zwischen w und P1 = 0
Daher beträgt der Abstand des Punktes P1 von der Ebene A:
Hier ||w|| ist die Größe von w.
Wenn additionally eine Ebene A gegeben ist, die für alle Punkte, die in Richtung des Vektors w im Halbraum liegen, einen durch sie verlaufenden Normalursprung hat, erhalten wir:
und wenn die Richtung der Punkte dem Vektor w entgegengesetzt ist, erhalten wir
Geometrische Instinct hinter SVM
Bei der logistischen Regression versuchen wir, die am besten passende Linie zu finden, die die Kategorien trennt.
In Help Vector Classifier (SVC)Außerdem versuchen wir, die am besten passende Linie zu finden, aber gleichzeitig versuchen wir auch, zwei Randebenen (P1 und P2) zu berechnen. Eine Ebene (P1) verläuft durch den nächstgelegenen Punkt einer Kategorie und die andere Ebene (P2) verläuft durch den nächstgelegenen Punkt einer anderen Kategorie, sodass die Der Abstand zwischen diesen beiden Randebenen (P1 und P2) sollte maximal sein.
Die Randebenen sollten den gleichen Abstand von der Greatest-Match-Linie haben.
P1 ist die Ebene parallel zur Ebene A und geht durch die nächstgelegene positiver Punkt. P2 ist die Ebene auch parallel zur Ebene A und geht durch die nächstgelegene negativer Punkt.
Da P1 parallel zur Ebene A und P2 ebenfalls parallel zur Ebene A ist, sind P1 und P2 parallel zueinander.
Die Schlüsselidee von SVM besteht darin, eine zu finden Flugzeug A das constructive und unfavourable Punkte so weit wie möglich trennt. Der Abstand zwischen P1 und P2 wird als bezeichnet Rand. Ebene A wird aufgerufen Margenmaximierende Hyperebene. Mit zunehmender Marge steigt auch die allgemeine Genauigkeit (Genauigkeit bei unsichtbaren Daten).
Punkte, die durch P1 und P2 verlaufen, werden aufgerufen Unterstützungsvektoren.
Harte Marge und weiche Marge
In Harte Margekönnen wir alle Punkte mithilfe von Randebenen trennen und erhalten keine Fehlermeldung. Wenn wir andererseits in der Lage sind, Randebenen zusammen mit der am besten passenden Linie zu finden, aber mit einem gewissen Fehler, sagen wir, dass es sich um eine handelt Weicher Rand.
Abschluss
In diesem Artikel haben wir SVMs, die Gleichung einer Linie und den Abstand eines Punktes von einer Ebene sowie die geometrische Instinct von SVMs besprochen. Außerdem haben wir über harte und weiche Margen gesprochen. In meinem nächsten Artikel werde ich versuchen, den Relaxation der oben genannten Themen zu diskutieren.
Vielen Dank, dass Sie diesen Artikel gelesen haben! Hinterlassen Sie unten einen Kommentar, wenn Sie Fragen haben. Du kannst mir weiter folgen Linkedin Und GitHub.