Neueste Anwendungsfälle der Latentfaktoranalyse Teil2 (Maschinelles Lernen) | von Monodeep Mukherjee | Juni 2023

0
28


  1. Ein von Adam erweiterter Partikelschwarmoptimierer für die Analyse latenter Faktoren (arXiv)

Autor: Jia Chen, Renyu Zhang, Yuanyi Liu

Zusammenfassung: Das Ausgraben latenter Informationen aus umfangreichen unvollständigen Matrizen ist ein Schlüsselproblem mit Herausforderungen. Das Latent Issue Evaluation (LFA)-Modell wurde eingehend untersucht, um die latenten Informationen zu analysieren. Kürzlich wurden LFA-Modelle im Zusammenhang mit Schwarmintelligenz vorgeschlagen und weithin übernommen, um den Optimierungsprozess von LFA mit hoher Effizienz zu verbessern, z. B. das Particle Swarm Optimization (PSO)-LFA-Modell. Allerdings müssen die Hyperparameter des PSO-LFA-Modells manuell angepasst werden, was für eine breite Akzeptanz unpraktisch ist und die Lernrate auf einen festen Wert begrenzt. Um dieses Drawback anzugehen, schlagen wir ein Adam-erweitertes hierarchisches PSO-LFA-Modell vor, das die latenten Faktoren mit einem sequentiellen Adam-anpassenden Hyperparameter-PSO-Algorithmus verfeinert. Zuerst entwerfen wir den Adam-Inkrementalvektor für ein Teilchen und konstruieren den Adam-verstärkten Evolutionsprozess für Teilchen. Zweitens verfeinern wir nacheinander alle latenten Faktoren der Zielmatrix mit unserem vorgeschlagenen Adam-verstärkten PSO-Prozess. Die experimentellen Ergebnisse an vier realen Datensätzen zeigen, dass unser vorgeschlagenes Modell im Vergleich zu seinen Kollegen eine höhere Vorhersagegenauigkeit erreicht.

2. Ein Dynamic-Neighbor Particle Swarm Optimizer für eine genaue Analyse latenter Faktoren (arXiv)

Autor: Jia Chen, Yixian Chun, Yuanyi Liu, Renyu Zhang, Yang Hu

Zusammenfassung: Hochdimensionale und unvollständige Matrizen, die normalerweise eine große Menge wertvoller latenter Informationen enthalten, können durch ein Modell zur Analyse latenter Faktoren intestine dargestellt werden. Die Leistung eines LFA-Modells hängt stark von seinem Optimierungsprozess ab. Daher nutzen einige frühere Studien die Partikelschwarmoptimierung, um den Optimierungsprozess eines LFA-Modells zu verbessern. Allerdings folgen die Partikel innerhalb des Schwarms den statischen Entwicklungspfaden und teilen nur die weltweit besten Informationen, was den Suchbereich der Partikel einschränkt und zu suboptimalen Problemen führt. Um dieses Drawback anzugehen, schlägt dieses Papier ein dynamisches, mit Nachbarn kooperierendes, hierarchisches PSO-erweitertes LFA-Modell mit zwei Hauptideen vor. Erstens gibt es die nachbarschaftlich kooperierende Strategie, die die Geschwindigkeit des zufällig ausgewählten Nachbarn für die Teilchenentwicklung erhöht. An zweiter Stelle steht die dynamische Optimierung der Hyperparameter. Zur Bewertung des vorgeschlagenen DHPL-Modells werden umfangreiche Experimente mit zwei Benchmark-Datensätzen durchgeführt. Die Ergebnisse belegen, dass DHPL bei der Darstellung einer HDI-Matrix ohne Hyperparameter-Optimierung eine höhere Genauigkeit erreicht als die vorhandenen PSO-integrierten LFA-Modelle.



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here