Der Aufbau guter Modelle zur Übersetzung von Gehirnsignalen ist eine HARTE AUFGABE! Modelle sind im Wesentlichen Abstraktionen von der Realität, die direkt mit wissenschaftlichen Hypothesen verknüpft sind. Im Zusammenhang mit Gehirnsignalen sollen die Modelle Merkmale aus zeitlichen Signalen extrahieren, um eine Verbindung zwischen Gehirn und Maschinen herzustellen. Um Fortschritte in der künstlichen Intelligenz zu erzielen, ist es entscheidend, kontinuierlich neue Modelle zu testen, insbesondere im Kontext des Mind-Pc Interface (BCI).
Im Gegensatz zu anderen Anwendungsbereichen wie Textual content und Bildern weisen Gehirndaten viele Besonderheiten auf. Ihre Gehirnsignale können sich erheblich von den Signalen einer anderen Particular person unterscheiden; Jedes Gehirn ist einzigartig. Darüber hinaus stellen BCI-Modelle besondere Herausforderungen dar, da die Gehirndaten sehr individuell sind und je nach ausgeführter spezifischer Aufgabe erheblich variieren können. Beispielsweise unterscheiden sich die Gehirnsignale im Ruhezustand völlig von denen, die während einer imaginären Aufgabe erzeugt werden. Daher ist es schwierig, Modelle zu entwickeln, die in allen Bereichen eine gleichbleibende Leistung erbringen Paradigmen.
Forscher müssen sich über ihre methodischen Entscheidungen im Klaren sein, um sicherzustellen, dass ein BCI-Modell effektiv ist. Sie müssen beispielsweise entscheiden, ob sie Folgendes trainieren möchten:
Um diese Herausforderungen anzugehen, können Sie die verwenden MOABB-BibliothekA NeuroTechX Open-Supply-Software program, die speziell für die Auswertung von Gehirndekodierungsmodellen entwickelt wurde.
Wie viele andere Open-Supply-Projekte begann MOABB mit der Reise eines Doktoranden. Alexandre Barachant schloss gerade seine Doktorarbeit in den französischen Alpen ab und hatte einen neuartigen Verarbeitungsansatz für maschinelles Lernen auf der Grundlage der Riemannschen Geometrie entwickelt. Auf BCIs angewendet übertraf dieser geometrische Ansatz alle bekannten Algorithmen. Dies in einer Veröffentlichung nachzuweisen, erwies sich jedoch als nahezu unmögliche Aufgabe. Vorhandene Ergebnisse in der wissenschaftlichen Literatur waren schwer oder gar nicht zu reproduzieren, eine große Herausforderung, die als bekannt ist Reproduzierbarkeitskrise. Alexandre Barachant entschied sich dafür, die Wirksamkeit des Riemannschen BCI durch die Teilnahme an mehreren Datenwettbewerben zu demonstrieren – und landete schließlich jedes einzelne davon zu gewinnen.
Der Mangel an reproduzierbaren Ergebnissen in der Literatur machte die Notwendigkeit eines vollständigen und fundierten Benchmarks für BCI-Modelle deutlich: einer fairen Bewertung der veröffentlichten Algorithmen. Mit der Unterstützung der NeuroTechX-Group, Vinay Jayaram Und Alexandre Barachant Das MOABB-Code-Repository gestartet und veröffentlicht ein Papier ihre Bewertung zu dokumentieren.
Das Ziel besteht darin, dass alle Arbeiten, die behaupten, BCI auf dem neuesten Stand der Technik zu verbessern, MOABB zur Unterstützung ihrer Ergebnisse nutzen könnten. Während Alexandre und Vinay CTRL-Labs beitraten (aus dem später Meta’s Reality Labs wurde) wurde die MOABB-Codebasis weiter verbessert, um mehr BCI-Datensätze zu unterstützen Sylvain Chevallier Und Pedro LC Rodrigues. Professor Chevallier übernahm die Leitung des Projekts und mit der kontinuierlichen Unterstützung von NeuroTechX teilten viele weltweite Mitwirkende die gleiche Begeisterung für dieses Benchmarking-Instrument. Die Bibliothek wird auch für die beiden Doktoranden geführt, Bruno Aristimunha, Igor Carrara, Sara SedlarUnd Sylvain Chevallier.
Die neueste Model der MOABB-Bibliothek ist vollgepackt mit neuen Funktionen und Verbesserungen, die das Benchmarking von Modellen für maschinelles Lernen einfacher und effektiver machen. Diese beinhalten:
Erweiterung der Dokumentation
Eine wesentliche Verbesserung in der neuesten Model ist die erweiterte Dokumentation der MOABB-Bibliothek. Die neue Dokumentation umfasst Tutorials, Beispiele und eine neu organisierte Inhaltsstruktur, um Anfängern gerecht zu werden und benutzerfreundliche Pfade bereitzustellen. Mit diesen Ergänzungen können Benutzer die Bibliothek nun effektiv nutzen und ihre Funktionen nutzen.
Benchmarking *eAlles*
Um den Benchmarking-Prozess zu vereinfachen, haben wir Verbesserungen am MOABB-Benchmarking-Skript vorgenommen. Jetzt können Benutzer problemlos verschiedene Auswertungen für alle Modelle und Datensätze durchführen. Unabhängig davon, ob es sich um das Coaching eines individuellen Modells für jedes Fach oder um ein allgemeines Modell handelt, das mehrere Fächer abdecken kann, unterstützt MOABB die Paradigmen Motor Imagery, P300 und SSVEP. Wir möchten unserem Open-Supply-Mitwirkenden danken, Divyesh Narayananfür seine unschätzbaren Beiträge.
Rastersuchfunktion
Wir freuen uns, die verbesserte Kompatibilität der Hyperparametersuche mit der Rastersuche während der EEG-Decodierung bekannt zu geben, die von implementiert wurde Igor Carrara. Diese Verbesserung ermöglicht es Benutzern, eine Reihe von Parametern zu untersuchen und die optimale Kombination für ihre Modelle für maschinelles Lernen zu ermitteln. Das beste Modell kann automatisch für die zukünftige Verwendung gespeichert werden. Zur Veranschaulichung dieser Funktion wird ein Beispiel einer Pipeline mit GridSearch bereitgestellt.
Deep Studying auf dem neuesten Stand
In dieser Model haben wir hochmoderne Deep-Studying-Modelle mit zwei verschiedenen Again-Ends integriert: Pytorch und Tensorflow. Unsere TensorFlow-Implementierung nutzt die neuesten Fortschritte bei Deep-Studying-Modellen, während unsere Integration mit Braindecode Kompatibilität mit Scikit-Be taught bietet. Diese neue Funktion ist das Ergebnis der Bemühungen zwischen Igor Carrara Und Bruno Aristimunha.
Maschinelles Lernen auf dem neuesten Stand
Um Doktoranden herauszufordern und zu motivieren – und um das Leben als Neuro-Enthusiasten einfacher zu machen – haben wir unsere Modelle für maschinelles Lernen für alle Paradigmen implementiert und überarbeitet. Diese Modelle repräsentieren den neuesten Stand der Technik und bieten einen Vergleichsmaßstab. Zu den bemerkenswerten Modellen gehören Augmentation Covariance Matrix, CCA, TRCA und MsetCCA. Wir bedanken uns bei Emmanuel K. Kalunga Und Sylvain Chevallier für ihre Beiträge in diesem Bereich.
Code-Carbon-Integration
Zusätzlich zu den Leistungskennzahlen haben wir eine Auswertung des CO2-Fußabdrucks jedes Modells eingeführt. Diese Überlegung steht im Einklang mit unserem Engagement für nachhaltige Praktiken. Wir danken Sylvain Chevallier Und Igor Carrara für ihre Bemühungen bei der Integration von Code Carbon in MOABB.
Erweiterte Datensatzsammlung
Darüber hinaus haben wir die Datensatzsammlung der Bibliothek deutlich erweitert. Diese Model führt neue P300-Datensätze ein und verbessert bestehende, wodurch die Vielseitigkeit und der Reichtum der verfügbaren Daten erhöht werden. Wir danken Ihnen Grégoire Cattan Und Pedro LC Rodrigues für ihre Beiträge in dieser Hinsicht.
Weitere technische Particulars finden Sie in unserem aktuellen Twitter-Thread oder GitHub. Unser Dank gilt insbesondere der Open-Supply-Group Divyesh Narayanan, Robin Schirrmeister, Jan Sosulski, Pierre Guetschel, danidask, Yosider, Grégoire Cattan Und Pedro LC Rodrigues, Emmanuel K. KalungaUnd Quentin Barthélemy für ihre wertvollen Beiträge.
Wenn Sie Gehirn-Dekodierungsmodelle mit EEG-Daten entwickeln, laden wir Sie ein, MOABB zu verwenden und einen Beitrag zu leisten über GitHuboder wenden Sie sich an eines der Kernteams, um etwas Neues für die Bibliothek vorzuschlagen!