Die Wurzeln des maschinellen Lernens liegen in der Statistik, die auch als Kunst des maschinellen Lernens betrachtet werden kann Wissen aus Daten extrahieren. Insbesondere Methoden wie die lineare Regression und die Bayes’sche Statistik, die beide bereits mehr als zwei Jahrhunderte (!) alt sind, stehen auch heute noch im Mittelpunkt des maschinellen Lernens. Weitere Beispiele und eine kurze Geschichte finden Sie im Zeitleiste des maschinellen Lernens (Wikipedia).
Der Bereich des maschinellen Lernens wird häufig entsprechend der Artwork der angegriffenen Probleme in Teilbereiche unterteilt. Eine grobe Kategorisierung ist wie folgt:
Überwachtes Lernen: Wir erhalten eine Eingabe, beispielsweise ein Foto mit einem Verkehrsschild, und die Aufgabe besteht darin, die richtige Ausgabe oder Beschriftung vorherzusagen, beispielsweise welches Verkehrszeichen sich auf dem Bild befindet (Geschwindigkeitsbegrenzung, Stoppschild usw.). Im einfachsten Fall liegen die Antworten in der Type Ja/Nein vor (wir nennen diese Binäre Klassifizierungsprobleme).
Unbeaufsichtigtes Lernen: Es gibt keine Beschriftungen oder korrekten Ausgaben. Die Aufgabe besteht darin, die Struktur der Daten zu entdecken: zum Beispiel die Gruppierung ähnlicher Elemente zu „Clustern“ oder die Reduzierung der Daten auf eine kleine Anzahl wichtiger „Dimensionen“. Datenvisualisierung kann auch als unbeaufsichtigtes Lernen betrachtet werden.
Verstärkungslernen: Wird häufig in Situationen verwendet, in denen ein KI-Agent wie ein selbstfahrendes Auto in einer Umgebung agieren muss und Rückmeldungen zu guten oder schlechten Entscheidungen mit einiger Verzögerung verfügbar sind. Wird auch bei Spielen verwendet, bei denen das Ergebnis erst am Ende des Spiels entschieden werden kann.
Die Kategorien überschneiden sich etwas und sind unscharf, sodass es manchmal schwierig sein kann, eine bestimmte Methode einer Kategorie zuzuordnen. Wie der Title schon sagt, findet beispielsweise das sogenannte halbüberwachte Lernen teilweise überwacht und teilweise unüberwacht statt.
Einstufung — Beim maschinellen Lernen konzentrieren wir uns vor allem auf überwachtes Lernen und insbesondere auf Klassifizierungsaufgaben. Bei der Klassifizierung beobachten wir Eingaben, beispielsweise ein Foto eines Verkehrszeichens, und versuchen, auf dessen „Klasse“ zu schließen, beispielsweise auf die Artwork des Schilds (Geschwindigkeitsbegrenzung 80 km/h, Fußgängerüberweg, Stoppschild usw.). Weitere Beispiele für Klassifizierungsaufgaben sind: Identifizierung gefälschter Twitter-Konten (die Eingabe umfasst die Liste der Follower und die Fee, mit der sie begonnen haben, dem Konto zu folgen, und es handelt sich entweder um ein gefälschtes oder ein echtes Konto) und handschriftliche Ziffernerkennung (die Eingabe ist ein Bild, Klasse ist 0,…,9).
Anstatt manuell genaue Regeln für die Klassifizierung aufzuschreiben, besteht der Sinn des überwachten maschinellen Lernens darin, eine Reihe von Beispielen zu nehmen, jedes einzelne mit der richtigen Bezeichnung zu kennzeichnen und sie zum „Trainieren“ einer KI-Methode zu verwenden, um die richtige Bezeichnung automatisch zu erkennen für die Trainingsbeispiele sowie (zumindest hoffentlich) alle anderen Bilder. Dies setzt natürlich die Bereitstellung der richtigen Labels voraus, weshalb wir von überwachtem Lernen sprechen. Der Benutzer, der die richtigen Etiketten bereitstellt, ist ein Vorgesetzter, der den Lernalgorithmus zu den richtigen Antworten führt, sodass der Algorithmus diese schließlich selbständig produzieren kann.
Überwachtes Lernen kann nicht nur lernen, die richtige Bezeichnung in einem Klassifizierungsproblem vorherzusagen, sondern auch in Situationen eingesetzt werden, in denen das vorhergesagte Ergebnis eine Zahl ist. Beispiele hierfür sind die Vorhersage der Anzahl der Personen, die auf eine Google-Anzeige klicken werden, basierend auf dem Anzeigeninhalt und Daten über das vorherige On-line-Verhalten des Nutzers, die Vorhersage der Anzahl von Verkehrsunfällen basierend auf Straßenzustand und Geschwindigkeitsbegrenzung oder die Vorhersage des Verkaufspreises von Immobilien nach Lage, Größe und Zustand. Diese Probleme werden aufgerufen Rückschritt. Sie kennen den Begriff wahrscheinlich lineare Regressioneine klassische, immer noch sehr beliebte Technik zur Regression.
Beispiel- Angenommen, wir haben einen Datensatz, der aus Wohnungsverkaufsdaten besteht. Für jeden Kauf hätten wir natürlich den gezahlten Preis, zusammen mit der Größe der Wohnung in Quadratmetern (oder Quadratfuß, wenn Sie so wollen) und der Anzahl der Schlafzimmer, dem Baujahr, dem Zustand (z Skala von „Katastrophe“ bis „Spick and Span“). Anschließend könnten wir maschinelles Lernen nutzen, um ein Regressionsmodell zu trainieren, das den Verkaufspreis basierend auf diesen Merkmalen vorhersagt. Sehen hier ein Beispiel aus der Praxis.
Es gibt ein paar mögliche Fehler, auf die wir Sie aufmerksam machen möchten. Sie hängen mit der Tatsache zusammen, dass Sie, wenn Sie bei der Anwendung maschineller Lernmethoden nicht sorgfältig vorgehen, zu viel Vertrauen in die Genauigkeit Ihrer Vorhersagen entwickeln und sehr enttäuscht sein könnten, wenn sich herausstellt, dass die Genauigkeit schlechter ist als erwartet.
Um große Fehler zu vermeiden, sollten Sie zunächst bedenken, dass Sie Ihren Datensatz in zwei Teile aufteilen: die Trainingsdaten und die Testdaten. Wir trainieren den Algorithmus zunächst nur anhand der Trainingsdaten. Dadurch erhalten wir ein Modell oder eine Regel, die die Ausgabe basierend auf den Eingabevariablen vorhersagt.
Um zu beurteilen, wie intestine wir die Ergebnisse tatsächlich vorhersagen können, können wir uns nicht auf die Trainingsdaten verlassen. Während ein Modell ein sehr guter Prädiktor für die Trainingsdaten sein kann, ist es kein Beweis dafür, dass es auf andere Daten verallgemeinert werden kann. Hier kommen die Testdaten zum Einsatz: Wir können das trainierte Modell anwenden, um die Ergebnisse der Testdaten vorherzusagen und die Vorhersagen mit den tatsächlichen Ergebnissen (z. B. zukünftigen Verkaufspreisen für Wohnungen) zu vergleichen.
Es ist sehr wichtig zu bedenken, dass die Genauigkeit eines durch maschinelles Lernen erlernten Prädiktors in den Trainingsdaten und in separaten Testdaten sehr unterschiedlich sein kann. Dies ist das sogenannte Überanpassung Phänomen, und viele Forschungen zum maschinellen Lernen konzentrieren sich darauf, es auf die eine oder andere Weise zu vermeiden. Intuitiv bedeutet Überanpassung, dass man versucht, zu schlau zu sein. Wenn Sie den Erfolg eines neuen Liedes eines bekannten Künstlers vorhersagen, können Sie sich die Erfolgsbilanz früherer Lieder des Künstlers ansehen und eine Regel aufstellen wie: „Wenn es in dem Lied um Liebe geht und es einen eingängigen Chorus enthält, wird es das auch sein.“ High 20″. Allerdings gibt es vielleicht zwei Liebeslieder mit eingängigen Refrains, die es nicht in die High 20 geschafft haben, additionally entscheiden Sie sich, die Regel „… außer wenn Schweden oder Yoga erwähnt werden“ beizubehalten, um Ihre Regel zu verbessern. Dies könnte dazu führen, dass Ihre Regel perfekt zu den vergangenen Daten passt, sie könnte aber tatsächlich funktionieren schlechter auf zukünftigen Testdaten.
Methoden des maschinellen Lernens sind besonders anfällig für Überanpassungen, da sie eine große Anzahl verschiedener „Regeln“ ausprobieren können, bis eine gefunden ist, die perfekt zu den Trainingsdaten passt. Insbesondere Methoden, die sehr flexibel sind und sich an quick jedes Muster in den Daten anpassen können, können zu einer Überanpassung führen, es sei denn, die Datenmenge ist riesig. Im Vergleich zu recht eingeschränkten linearen Modellen, die durch lineare Regression erhalten werden, können neuronale Netze beispielsweise riesige Datenmengen erfordern, bevor sie zuverlässige Vorhersagen liefern.
Oben haben wir überwachtes Lernen besprochen, bei dem die richtigen Antworten verfügbar sind und die Aufgabe des Algorithmus für maschinelles Lernen darin besteht, ein Modell zu finden, das diese anhand der Eingabedaten vorhersagt.
Beim unüberwachten Lernen werden nicht die richtigen Antworten gegeben. Dadurch ist die Scenario ganz anders, da wir das Modell nicht erstellen können, indem wir es anhand der Trainingsdaten an die richtigen Antworten anpassen. Außerdem wird die Bewertung der Leistung dadurch komplizierter, da wir nicht überprüfen können, ob das erlernte Modell intestine funktioniert oder nicht.
Typische unbeaufsichtigte Lernmethoden versuchen, eine Artwork „Struktur“ zu lernen, die den Daten zugrunde liegt. Dies kann beispielsweise eine Visualisierung bedeuten, bei der ähnliche Gegenstände nahe beieinander und unterschiedliche Gegenstände weiter voneinander entfernt platziert werden. Es kann auch Clustering bedeuten, bei dem wir die Daten verwenden, um Gruppen oder „Cluster“ von Elementen zu identifizieren, die einander ähnlich sind, sich aber von den Daten in anderen Clustern unterscheiden.
Ein konkretes Beispiel: Lebensmittelketten sammeln Daten über das Einkaufsverhalten ihrer Kunden (dafür gibt es all diese Kundenkarten). Um seine Kunden besser zu verstehen, kann das Geschäft die Daten entweder mithilfe eines Diagramms visualisieren, in dem jeder Kunde durch einen Punkt dargestellt wird und Kunden, die dazu neigen, die gleichen Produkte zu kaufen, näher beieinander platziert sind als Kunden, die unterschiedliche Produkte kaufen. Oder das Geschäft könnte Clustering anwenden, um eine Reihe von Kundengruppen wie „Low-Finances-Enthusiasten gesunder Lebensmittel“, „Fischliebhaber der gehobenen Preisklasse“, „Soda und Pizza 6 Tage die Woche“ usw. zu gewinnen. Beachten Sie, dass die Methode des maschinellen Lernens die Kunden nur in Cluster gruppiert, die Clusterbezeichnungen („Fischliebhaber“ usw.) jedoch nicht automatisch generiert. Diese Aufgabe bleibt dem Benutzer überlassen.
Ein weiteres Beispiel für unbeaufsichtigtes Lernen kann als generative Modellierung bezeichnet werden. Dieser Ansatz ist in den letzten Jahren zu einem prominenten Ansatz geworden, da eine Deep-Studying-Technik namens Generative Adversarial Networks (GANs) zu großen Fortschritten geführt hat. Anhand einiger Daten, zum Beispiel Fotos von Gesichtern von Menschen, kann ein generatives Modell mehr davon erzeugen: realistischere, aber künstliche Bilder von Gesichtern von Menschen.