Support Vector Machine: Ein umfassender Leitfaden – Teil 1 | von Sachin Dev | Mai 2023

0
60


Help Vector Machines (SVMs) sind eine Artwork überwachter Lernalgorithmus, der zur Klassifizierung und Regressionsanalyse verwendet wird. SVMs sind besonders nützlich bei der Arbeit mit komplexen Datensätzen mit hochdimensionalen Merkmalsräumen und wurden erfolgreich in einer Vielzahl von Anwendungen eingesetzt, darunter Bildklassifizierung, Verarbeitung natürlicher Sprache und Bioinformatik.

Quelle: Alteryx

Um SVM zu erklären, habe ich dieses Thema in 10 Unterthemen unterteilt. Ich werde in diesem Artikel nur die ersten fünf Unterthemen behandeln und den Relaxation in meinem nächsten kommenden Artikel behandeln.

  1. Was ist SVM?
  2. Gleichung einer Linie.
  3. Abstand eines Punktes von einer Ebene.
  4. Geometrische Instinct hinter SVM.
  5. Harter und weicher Rand.
  6. SVM Mathematische Instinct.
  7. Kostenfunktion
  8. Help Vector Regression (SVR)
  9. SVM-Kernel
  10. Typ der SVM-Kernel

Was ist SVM?

SVMs basieren auf der Idee, die Hyperebene zu finden, die zwei Klassen in einer Klasse trennt. In einem zweidimensionalen Merkmalsraum ist die Hyperebene eine Linie, die die beiden Klassen trennt. In höheren Dimensionen ist die Hyperebene eine Ebene. Das Ziel von SVMs besteht darin, die Hyperebene zu finden, die den Abstand zwischen zwei Klassen maximiert.

SVMs können sowohl Klassifizierungs- als auch Regressionsprobleme lösen.

  • Klassifizierung → Help Vector Classifier (SVC)
  • Regression → Help Vector Regressor (SVR)

Liniengleichung

Die Gleichung einer Geraden wird üblicherweise wie folgt geschrieben:

y = mx + c

wobei m = Steigung der Geraden und c der y-Achsenabschnitt ist.

  • Neigung: Die Steigung einer Geraden sagt uns mit der Einheitsbewegung in der unabhängigen Variablen (x), wie groß die Bewegung in der abhängigen Variablen (y) ist.
  • Abfangen: Wenn der Wert der abhängigen Variablen (x) Null ist, wird der Punkt, an dem die am besten angepasste Linie die y-Achse trifft, als Schnittpunkt bezeichnet.
Bildquelle: w3schools

Die Geradengleichung kann auch wie folgt geschrieben werden:

Liniengleichung

Es kann auch geschrieben werden als:

Geradengleichung (Matrixmultiplikation)

Gleichung einer durch den Ursprung verlaufenden Geraden:

Gleichung einer Geraden, die durch den Ursprung verläuft
Eine Linie, die durch den Ursprung verläuft

Abstand eines Punktes von einer Ebene

Im Bild unten haben wir eine Ebene A und w ist ein Vektor senkrecht zur Ebene A. P1 und P2 sind zwei Punkte. Der Abstand von Punkt P1 von der Ebene A beträgt d und der Abstand von Punkt P2 von der Ebene A beträgt d‘.

Abstand eines Punktes von einer Ebene

Da w und P1 auf derselben Seite der Ebene liegen und senkrecht zueinander stehen, ist der Winkel zwischen w und P1 = 0

Daher beträgt der Abstand des Punktes P1 von der Ebene A:

Entfernung von Punkt P1 von der Ebene

Hier ||w|| ist die Größe von w.

Positiver und negativer Abstand

Wenn additionally eine Ebene A gegeben ist, die für alle Punkte, die in Richtung des Vektors w im Halbraum liegen, einen durch sie verlaufenden Normalursprung hat, erhalten wir:

Punkte und Vektor in die gleiche Richtung

und wenn die Richtung der Punkte dem Vektor w entgegengesetzt ist, erhalten wir

Punkte und der Vektor in die entgegengesetzte Richtung
Positiver und negativer Abstand

Geometrische Instinct hinter SVM

Bei der logistischen Regression versuchen wir, die am besten passende Linie zu finden, die die Kategorien trennt.

Die Greatest-Match-Linie trennt die Kategorien

In Help Vector Classifier (SVC)Außerdem versuchen wir, die am besten passende Linie zu finden, aber gleichzeitig versuchen wir auch, zwei Randebenen (P1 und P2) zu berechnen. Eine Ebene (P1) verläuft durch den nächstgelegenen Punkt einer Kategorie und die andere Ebene (P2) verläuft durch den nächstgelegenen Punkt einer anderen Kategorie, sodass die Der Abstand zwischen diesen beiden Randebenen (P1 und P2) sollte maximal sein.

Die Randebenen sollten den gleichen Abstand von der Greatest-Match-Linie haben.

Rand

P1 ist die Ebene parallel zur Ebene A und geht durch die nächstgelegene positiver Punkt. P2 ist die Ebene auch parallel zur Ebene A und geht durch die nächstgelegene negativer Punkt.

Da P1 parallel zur Ebene A und P2 ebenfalls parallel zur Ebene A ist, sind P1 und P2 parallel zueinander.

Die Schlüsselidee von SVM besteht darin, eine zu finden Flugzeug A das constructive und unfavourable Punkte so weit wie möglich trennt. Der Abstand zwischen P1 und P2 wird als bezeichnet Rand. Ebene A wird aufgerufen Margenmaximierende Hyperebene. Mit zunehmender Marge steigt auch die allgemeine Genauigkeit (Genauigkeit bei unsichtbaren Daten).

Punkte, die durch P1 und P2 verlaufen, werden aufgerufen Unterstützungsvektoren.

Unterstützungsvektoren

Harte Marge und weiche Marge

In Harte Margekönnen wir alle Punkte mithilfe von Randebenen trennen und erhalten keine Fehlermeldung. Wenn wir andererseits in der Lage sind, Randebenen zusammen mit der am besten passenden Linie zu finden, aber mit einem gewissen Fehler, sagen wir, dass es sich um eine handelt Weicher Rand.

Harte Marge
Weicher Rand

Abschluss

In diesem Artikel haben wir SVMs, die Gleichung einer Linie und den Abstand eines Punktes von einer Ebene sowie die geometrische Instinct von SVMs besprochen. Außerdem haben wir über harte und weiche Margen gesprochen. In meinem nächsten Artikel werde ich versuchen, den Relaxation der oben genannten Themen zu diskutieren.

Vielen Dank, dass Sie diesen Artikel gelesen haben! Hinterlassen Sie unten einen Kommentar, wenn Sie Fragen haben. Du kannst mir weiter folgen Linkedin Und GitHub.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here