Überwachtes Lernen. Teil — 2 | von Sowjanya Sadashiva | Juni 2023

0
23


Teil 2

Die Daten haben eine Zielausgabe.

Das Ziel des überwachten Lernens besteht darin, eine Funktion f(x) zu lernen, die basierend auf den Trainingsdaten Eingaben auf Ausgaben abbildet.

Artwork der Ausgabedaten:

  1. Wenn Y stetig ist, handelt es sich um ein Regressionsproblem
  2. Wenn Y ein Aufzählungstyp ist, handelt es sich um ein Klassifizierungsproblem.

Die Aufgabe des überwachten Lernens besteht darin, eine Funktion (Hypothese) zu lernen, sodass h(x(i)) ein „guter“ Prädiktor für y: h: X->Y ist

  • h ist die Darstellung, ein Hypothesenraum.
  • Der Hypothesenraum ist der Raum aller Funktionen, die mit der Darstellung dargestellt werden können.
  • Die detaillierte Erklärung des Hypothesenraums kann sein Lies hier
  • Die Bewertungs-/Leistungsfunktion bestimmt, was „intestine“ bedeutet
  • Wenn probabilistische Kriterien verwendet werden, kann h auch ausgewählt werden, um P(y) darzustellen, gefolgt von entweder einem MLE, MAP oder einer Erwartungswertauswahl von y.
  • im Allgemeinen h(x) = Y
  • wenn y aufzählbar ist: *h(x) gibt uns einen Vektor der Wahrscheinlichkeit von Ausgaben, d. h. h(x) = (p(y1), p(y2), …., p(yn))
  • Wir klassifizieren den Datenpunkt als denjenigen mit der höchsten Wahrscheinlichkeit im Vektor.

MLE gibt die beste aller Wahrscheinlichkeit an, additionally argmax(yn).

Darstellung:

  • Wir haben eine Funktion, die die Ausgabe oder Wahrscheinlichkeit der Ausgabe vorhersagt.
  • Der Raum für alle möglichen überwachten Lernlösungen ist der Raum aller Funktionen.
  • Abhängig von der Artwork der Daten kann es manchmal sehr groß sein.
  • Wir können die Artwork der Funktion einschränken
  • Wir können die Genauigkeit der Darstellung der Funktion einschränken
  • Die Anzahl der Funktionen, die h(x) im Hypothesenraum haben kann, hängt von mehreren Faktoren ab, darunter der gewählten Modellarchitektur, der Komplexität des Modells und der Anzahl der Parameter im Modell.

Zum Beispiel:

Bei der linearen Regression besteht der Hypothesenraum aus linearen Funktionen. Für ein Modell mit n Eingabemerkmalen umfasst der Hypothesenraum Funktionen der Kind f(x) = w₀ + w₁x₁ + w₂x₂ + … + wₙxₙ, wobei w₀, w₁, w₂, …, wₙ die Parameter (Gewichte) des Modells sind.

entsprechend jeder Funktion. In diesem Fall enthält der Hypothesenraum alle möglichen Linearkombinationen der Eingabemerkmale.

Parametrische Funktionen:

Parametrische Darstellung:

  • Parametrische Funktionen verfügen über eine feste Anzahl von Parametern, die die Kind und das Verhalten der Funktion definieren.
  • Mit anderen Worten: Die Komplexität des Modells wird durch die Anzahl der Parameter und nicht durch die Datenmenge bestimmt.
  • Ziel ist es, die besten Werte für die Parameter zu finden, die die gewählte Verlustfunktion minimieren.
  • Beispiele für parametrische Modelle sind lineare Regression, logistische Regression, Polynome festen Grades und neuronale Netze mit fester Architektur.
  • Bei der linearen Regression besteht der Hypothesenraum aus linearen Funktionen, die durch die Parameter definiert werden, nämlich die Gewichte (Koeffizienten) und den Bias-Time period. Das Modell geht davon aus, dass die Beziehung zwischen den Eingabemerkmalen und der Ausgabevariablen linear ist. Das Ziel besteht darin, die optimalen Werte für die Gewichte zu finden, die den Vorhersagefehler minimieren.

Vorteile parametrischer Funktionen:

  • Einfachheit: Parametrische Modelle sind oft einfacher und leichter zu interpretieren.
  • Effizienz: Parametrische Modelle haben tendenziell schnellere Trainings- und Vorhersagezeiten.
  • Generalisierung: Parametrische Modelle lassen sich intestine verallgemeinern, insbesondere wenn die Trainingsdaten begrenzt sind.

Einschränkungen parametrischer Funktionen:

  • Eingeschränkte Flexibilität: Parametrische Modelle haben eine vordefinierte funktionale Kind, die ihre Fähigkeit, komplexe oder nichtlineare Beziehungen in den Daten zu erfassen, einschränken kann.
  • Annahmen: Parametrische Modelle gehen häufig von Annahmen über die zugrunde liegende Datenverteilung aus, die möglicherweise nicht immer zutreffen.

Nicht-parametrische Funktionen können hier ausführlich gelesen werden.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here