Support Vector Machine (SVM) für Anfänger | von Ritika Dhamija | Juni 2023

0
26


Wir werden über SVM zuerst in Affenbananen-Begriffen und dann in technischer Hinsicht sprechen (hier Energy By means of).

SVM in Affenbananen-Begriffen

Ein Affe möchte reife und unreife Bananen trennen. Er zeichnet eine Linie (Entscheidungsgrenze), um den Raum zu trennen. Nun möchte der Affe lernen, die Bananen zu trennen. Hier ist die Wendung: Der Affe möchte den maximalen Abstand zwischen der Linie und der nächstgelegenen Banane haben. Dieser Abstand wird Marge genannt. Je größer der Spielraum, desto besser die Klassifizierung.

Manchmal sehen reife und unreife Bananen ähnlich aus, sodass der Affe möglicherweise nur wenige Fehler macht und einige von ihnen falsch klassifiziert. Diese Flexibilität wird Gentle Margin genannt.

Es gibt Zeiten, in denen Affen auf die Bananenmischung stoßen und nicht wissen, wie sie diese trennen sollen (nichtlineare Daten). Dieser Affe ist faul beim Trennen der Bananen, aber auch schlau. Er verwendet einen eingebauten cleveren mathematischen Trick namens Kernel-Trick. Dieser Kernel-Trick hilft ihm, eine Grenze (Entscheidungsgrenze) zu ziehen, selbst wenn die Bananen gemischt werden.

Der Knackpunkt ist, dass unser Affe (SVM) verdammt schlau ist. Es trennt nicht nur reife und unreife Bananen (Datenpunkte), sondern auch Bananen unterschiedlicher Größe und Farbe.

SVM in technischer Hinsicht

SVM ist im Grunde ein überwachtes Modell für maschinelles Lernen, das sowohl zur Klassifizierung als auch zur Regression verwendet werden kann. SVM eignet sich besonders intestine zur Lösung binärer Klassifizierungsprobleme. Davon abgesehen besteht die Idee darin, eine optimale Hyperebene zu finden, die Äpfel von Birnen trennt (Bezug auf zwei verschiedene Klassen). Diese Hyperebene wird Entscheidungsgrenze genannt.

Wie wird die Entscheidungsgrenze gewählt?
Nun, was SVM tut, ist, dass es dazu neigt, den Spielraum zu maximieren, dh den Abstand zwischen der Hyperebene (der Linie, die zwei Klassen trennt) und dem nächstgelegenen Datenpunkt jeder Klasse. Der Grund dafür ist, dass unser Modell allgemeiner sein wird und in der Lage sein wird, unsichtbare Daten vorherzusagen. SVM verwendet einen eigenen Trick, um die Daten zu trennen (auch wenn sie nicht linear trennbar sind), den sogenannten Kernel-Trick. Sie müssen lediglich einen geeigneten Kernel an Ihren Klassifikator übergeben.

Die Datenpunkte scheinen nicht linear trennbar zu sein.

Der Kernel-Trick verwendet |x| daraus etwas machen

Jetzt sehen die obigen Daten linear trennbar aus. Wir müssen nicht herausfinden, welche Mathematik wir benötigen, um den Kernel-Trick anzuwenden, der die Magie für uns bewirkt. Genau wie beim Kernel können wir andere Parameter wie C oder Gamma übergeben, die bei der Klassifizierung nichtlinearer Datenpunkte helfen. Schwere Worte, oder? Der Nachteil der obigen Nuance besteht darin, dass Sie, wenn die Daten nichtlinear trennbar sind, einige Parameter wie (C, Gamma, Kernel) verwenden können, um die Datenpunkte zu trennen.

Eine letzte Sache: Manchmal, wenn Daten nicht linear trennbar sind, lässt SVM zu, dass einige Datenpunkte falsch klassifiziert werden. Dies wird als weicher Rand bezeichnet.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here