Teil 2 – Von der Neugier zur Praxistauglichkeit: Meine drei Jahrzehnte umfassende Reise ins maschinelle Lernen | von AI Trader @ berbul.com | Juni 2023

0
23


Einführung: Meine Faszination für maschinelles Lernen (ML) entstand während meines School-Projekts, bei dem ich seine Möglichkeiten und potenziellen Anwendungen erkundete. Der begrenzte Umgang mit Computern in meiner Kindheit machte das Konzept von Maschinen, die das menschliche Gehirn simulieren, umso faszinierender. Allerdings blieb es zu dieser Zeit hauptsächlich im akademischen Bereich. 25 Jahre später, mit Fortschritten bei der Rechenleistung und Durchbrüchen in der Forschung, habe ich ML aus einer praktischen Geschäftsperspektive wiederentdeckt.

Meine Faszination für maschinelles Lernen (ML) wurde durch die Konvergenz von verbesserten Rechenkapazitäten und bahnbrechender Forschung neu entfacht. Nachdem ich das Potenzial von ML aus praktischer Geschäftsperspektive wiederentdeckt hatte, begab ich mich auf eine Reise, um seine Anwendungen außerhalb der akademischen Welt zu erkunden. In diesem Artikel teile ich meine Erfahrungen mit TensorFlow, einem leistungsstarken Framework, das es mir ermöglichte, in die Welt der Handelsmodelle einzutauchen. Obwohl ich kein ML-Experte bin, lag mein Fokus immer auf der Anwendung von ML zur Lösung realer Probleme.

ML wiederentdecken: Fortschritte in der Rechenleistung und Forschungsdurchbrüche haben mein Interesse an ML als möglicher Lösung für mein Downside neu entfacht. Die Neugier trieb mich dazu, mit Open-Supply-Jupyter-Notebooks und grundlegenden Regressionsmodellen zu experimentieren. Trotz seiner Einfachheit battle ich von der Leistungsfähigkeit von ML beeindruckt, da ein paar Codezeilen vielversprechende Ergebnisse lieferten. Nebenbei lernte ich Python und tauchte mit Beiträgen der Open-Supply-Neighborhood tiefer in die Entwicklung von ML-Modellen ein.

Erste Eindrücke in Frage stellen: Während die ersten Visualisierungen des Basismodells zutreffend schienen, begann ich mich zu fragen, warum ein so effektiver Ansatz nicht umfassend diskutiert wurde. Diese Neugier veranlasste mich, weitere Nachforschungen anzustellen, da ich vermutete, dass die Diagramme irreführend sein könnten.

Einschränkungen aufdecken: Um die Leistung des Modells zu validieren, habe ich seine Vorhersagen sorgfältig durch eine Zeitreihenschleife mit Pausen untersucht. Es stellte sich heraus, dass das Modell den letzten Schlusskurs mit einer Verzögerung widerspiegelte, was die Phantasm genauer Vorhersagen erzeugte. Diese Erfahrung verdeutlichte, wie wichtig es ist, ML-Modelle und ihre Grenzen zu verstehen.

Einbeziehung historischer Abläufe und Kontexte: Bei der Untersuchung von Handelsmustern wurde die Bedeutung der Einbeziehung historischer Abläufe und Kontexte bei der Vorhersage zukünftiger Preisbewegungen hervorgehoben. Fasziniert von diesem Konzept, recherchierte ich weiter und beschloss, ein LSTM-Modell (Lengthy Brief-Time period Reminiscence) zu entwickeln. Diese Artwork von wiederkehrendem neuronalen Netzwerk (RNN) zeichnet sich durch die Erfassung langfristiger Abhängigkeiten und Muster in sequentiellen Daten aus und eignet sich daher für den Intraday-Handel.

Herausforderungen mit aufmerksamkeitsbasiertem Netzwerk meistern: Trotz anfänglicher Aufregung blieben die Ergebnisse des LSTM-Modells hinter den Erwartungen zurück. Darüber hinaus konzentrierten sich die meisten Experimente, die ich on-line gefunden habe, auf längerfristige Prognosen unter Verwendung täglicher OHLC-Daten, die für den Intraday-Handel nicht geeignet sind. Entschlossen, eine Lösung zu finden, stieß ich auf das Papier „Consideration Is All You Want“, in dem die Bedeutung des Aufbaus einer aufmerksamkeitsbasierten Mustererkennung, ähnlich dem menschlichen Lernen, hervorgehoben wurde. Dieser Ansatz erforderte reichlich Daten und erhebliche Rechenressourcen. Glücklicherweise entdeckte ich Alpaca Markets, eine Plattform, die kostenlosen Zugang zu den notwendigen Intraday-Handelsdaten bietet. Allerdings stellte die Erfüllung der Rechenanforderungen eine Herausforderung dar. Cloudbasierte Lösungen waren teuer und veranlassten mich, in einen leistungsstarken Desktop mit einer guten GPU zu investieren, damit ich TensorFlow effektiv nutzen konnte.

Gelernte Lektionen: Während meiner Reise habe ich mehrere wichtige Lektionen gelernt:

  1. Die Skalierung ist entscheidend: Die richtige Skalierung der Daten kann sich erheblich auf die Leistung der Modellabdeckung auswirken. Ich habe mit verschiedenen Skalierungsmustern und Normalisierungstechniken experimentiert, bis ich etwas gefunden habe, das funktioniert.
  2. Kontextlänge und Aggregation: Es ist wichtig, die geeignete Länge der zu berücksichtigenden historischen Daten zu bestimmen und zu bestimmen, wie weit die Prognose in die Zukunft reicht. Für bessere Vorhersagen erwies es sich als entscheidend, optimale Möglichkeiten zur Aggregation des Zeitfensters zu finden.
  3. Ensemble-Modelle: Es reicht nicht aus, sich auf ein einzelnes Modell zu verlassen. Die Erstellung eines Ensembles von Modellen, die auf kurz-, mittel- und langfristige Vorhersagen zugeschnitten sind, verbesserte die Gesamtleistung.
  4. Ticker-Universalität: Überraschenderweise zeigten die von mir entwickelten Modelle bei verschiedenen Tickern Allgemeingültigkeit. Beginnend mit Tickern mit hohem täglichen Handelsvolumen wie SPY und der Ausweitung auf andere wie AAPL wurden bessere Ergebnisse erzielt.
  5. Function Engineering: Ab einem bestimmten Punkt brachte das Hinzufügen zu vieler technischer Indikatoren keinen großen Nutzen mehr und konnte sogar die Leistung beeinträchtigen. Minimale technische Indikatoren spielten zusammen mit OHLCV-Daten eine entscheidende Rolle bei der Erzielung einer optimalen Leistung.
  6. Angepasste Fenster für technische Indikatoren: Die Anpassung der Auswahl und Parameter technischer Indikatoren erwies sich als vorteilhaft. Das Experimentieren mit verschiedenen Fenstern und Kombinationen ermöglichte effektivere Vorhersagen.
  7. Die Rolle des Handelsvolumens und der Preisdynamik: Um den Trainingsprozess zu optimieren, habe ich mich zunächst dafür entschieden, externe Faktoren wie die Nachrichtenstimmung nicht einzubeziehen (obwohl diese bei Bedarf später integriert werden können). Stattdessen lag mein Fokus darauf, die wertvollen Erkenntnisse aus Handelsvolumen und Preisdynamik zu nutzen. Das Handelsvolumen dient als Indikator für die Marktbeteiligung und liefert wertvolle Informationen über die Intensität des Kauf- oder Verkaufsdrucks. Die Preisdynamik hingegen gibt Aufschluss über die Geschwindigkeit, mit der sich die Preise ändern, und liefert wertvolle Hinweise auf mögliche Traits und Muster. Durch die Nutzung dieser wesentlichen Faktoren konnte ich die Genauigkeit meiner Modelle verbessern und fundiertere Handelsentscheidungen auf der Grundlage vorhandener Daten treffen.

Nächste Schritte: Papierhandel und darüber hinaus: Um ein umfassendes Verständnis der Leistung meiner Modelle in Echtzeit zu erlangen und effektive Handelsmuster zu identifizieren, battle der nächste logische Schritt, sie im Papierhandel zu implementieren. Dies ermöglichte es mir, die Wirksamkeit der Modelle zu validieren und notwendige Anpassungen basierend auf den aktuellen Marktbedingungen vorzunehmen. Seien Sie gespannt auf meinen kommenden Artikel, in dem ich meine Erfahrungen und Erkenntnisse aus dieser Section teilen werde, einschließlich der Iterationen, die erforderlich sind, um eine Reihe von Modellen zu entwickeln, die sich im Laufe der Zeit kontinuierlich verbessert haben und meinem Ziel, eine Genauigkeit von über 80 % im Reside-Handel zu erreichen, immer näher gekommen sind ( nicht nur Backtesting). Sie können die Modelle in Aktion erleben unter www.berbul.com/live.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here