Neue Forschung zum Aufmerksamkeitsmechanismus Teil 2 (Maschinelles Lernen) | von Monodeep Mukherjee | Juni 2023

0
29


  1. Aufmerksamkeitsmechanismen in der medizinischen Bildsegmentierung: Eine Umfrage (arXiv)

Autor: Yutong Xie, Bing Yang, Qingbiao Guan, Jianpeng Zhang, Qi Wu, Yong Xia

Zusammenfassung: Die Segmentierung medizinischer Bilder spielt eine wichtige Rolle in der computergestützten Diagnose. Aufmerksamkeitsmechanismen, die wichtige Teile von irrelevanten Teilen unterscheiden, werden häufig bei medizinischen Bildsegmentierungsaufgaben eingesetzt. In diesem Artikel werden die Grundprinzipien der Aufmerksamkeitsmechanismen und ihre Anwendungen in der medizinischen Bildsegmentierung systematisch untersucht. Zunächst überprüfen wir die grundlegenden Konzepte des Aufmerksamkeitsmechanismus und der Aufmerksamkeitsformulierung. Zweitens haben wir über 300 Artikel zum Thema medizinische Bildsegmentierung untersucht und sie anhand ihrer Aufmerksamkeitsmechanismen in zwei Gruppen eingeteilt: Nicht-Transformer-Aufmerksamkeit und Transformer-Aufmerksamkeit. In jeder Gruppe analysieren wir die Aufmerksamkeitsmechanismen eingehend unter drei Aspekten, basierend auf der aktuellen Literaturarbeit, nämlich dem Prinzip des Mechanismus (was zu verwenden ist), Implementierungsmethoden (wie zu verwenden) und Anwendungsaufgaben (wo zu verwenden). Wir haben auch die Vorteile und Einschränkungen ihrer Anwendungen für verschiedene Aufgaben gründlich analysiert. Abschließend fassen wir den aktuellen Forschungsstand und die Defizite auf diesem Gebiet zusammen und diskutieren die potenziellen Herausforderungen in der Zukunft, einschließlich Aufgabenspezifität, Robustheit, Standardbewertung usw. Wir hoffen, dass diese Überprüfung den gesamten Forschungskontext von traditionell und Transformer darstellen kann Aufmerksamkeitsmethoden liefern eine klare Referenz für nachfolgende Forschung und inspirieren weiterführende Aufmerksamkeitsforschung, nicht nur in der medizinischen Bildsegmentierung, sondern auch in anderen Bildanalyseszenarien

2. Faltungs-Neuronales Netzwerk basierend auf einem Aufmerksamkeitsmechanismus mit spärlichem Graphen für MRT-Superauflösung (arXiv)

Autor: Xin Hua, Zhijiang Du, Hongjian Yu, Jixin Maa

Zusammenfassung: Die Magnetresonanztomographie (MRT) ist ein wertvolles klinisches Instrument zur Darstellung anatomischer Strukturen und zur Unterstützung einer genauen Diagnose. Die Rekonstruktion medizinischer Bilder mit Superauflösung (SR) mithilfe von Deep-Studying-Techniken kann die Läsionsanalyse verbessern und Ärzten dabei helfen, die Diagnoseeffizienz und -genauigkeit zu verbessern. Bestehende, auf tiefem Lernen basierende SR-Methoden basieren jedoch überwiegend auf Faltungs-Neuronalen Netzen (CNNs), die die Ausdrucksmöglichkeiten dieser Modelle von Natur aus einschränken und es daher schwierig machen, mögliche Beziehungen zwischen verschiedenen Bildmerkmalen zu entdecken. Um diese Einschränkung zu überwinden, schlagen wir ein A-Netzwerk vor, das mehrere Faltungsoperator-Merkmalsextraktionsmodule (MCO) zum Extrahieren von Bildmerkmalen mithilfe mehrerer Faltungsoperatoren verwendet. Diese extrahierten Options werden durch mehrere Sätze von Cross-Function-Extraction-Modulen (MSC) geleitet, um wichtige Options durch kanalübergreifende Function-Interaktionen hervorzuheben und so das anschließende Function-Lernen zu ermöglichen. Ein aufmerksamkeitsbasiertes neuronales Netzwerkmodul mit spärlichem Graphen ist integriert, um Beziehungen zwischen Pixelmerkmalen herzustellen und zu lernen, welche benachbarten Pixel den größten Einfluss auf die Bestimmung der auszufüllenden Merkmale haben. Um die Wirksamkeit unseres Modells zu bewerten, haben wir Experimente mit verschiedenen Modellen an Daten durchgeführt, die aus mehreren Datensätzen mit unterschiedlichen Degradationsmultiplikatoren generiert wurden. Die experimentellen Ergebnisse zeigen, dass unsere Methode eine deutliche Verbesserung gegenüber den aktuellen Methoden auf dem neuesten Stand der Technik darstellt



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here