Machen Sie daraus eine digitale Marionette: GenMM ist ein KI-Modell, das Bewegungen anhand eines einzelnen Beispiels synthetisieren kann

0
23


Computergenerierte Animationen werden von Tag zu Tag realistischer. Dieser Fortschritt lässt sich am besten in Videospielen beobachten. Denken Sie an das erste Lara Croft im Tomb Raider Serie und die neueste Lara Croft. Wir haben uns von einer Puppe mit 230 Polygonen, die abgefahrene Bewegungen ausführt, zu einer lebensechten Figur entwickelt, die sich sanft auf unseren Bildschirmen bewegt.

Die Erzeugung natürlicher und vielfältiger Bewegungen in Computeranimationen ist seit langem ein herausforderndes Downside. Herkömmliche Methoden wie Movement-Seize-Systeme und manuelle Animationserstellung sind bekanntermaßen teuer und zeitaufwändig, was zu begrenzten Bewegungsdatensätzen führt, denen es an Vielfalt in Stil, Skelettstrukturen und Modelltypen mangelt. Dieser manuelle und zeitaufwändige Charakter der Animationserstellung erfordert in der Branche eine automatisierte Lösung.

Bestehende datengesteuerte Bewegungssynthesemethoden sind in ihrer Wirksamkeit begrenzt. In den letzten Jahren hat sich Deep Studying jedoch zu einer leistungsstarken Technik in der Computeranimation entwickelt, die in der Lage ist, vielfältige und realistische Bewegungen zu synthetisieren, wenn sie anhand großer und umfassender Datensätze trainiert wird.

Deep-Studying-Methoden haben beeindruckende Ergebnisse bei der Bewegungssynthese gezeigt, weisen jedoch Nachteile auf, die ihre praktische Anwendbarkeit einschränken. Erstens erfordern sie lange Einarbeitungszeiten, was einen erheblichen Engpass in der Animationsproduktionspipeline darstellen kann. Zweitens sind sie anfällig für visuelle Artefakte wie Zittern oder übermäßige Glättung, die die Qualität der synthetisierten Bewegungen beeinträchtigen. Schließlich ist es schwierig, sie intestine auf große und komplexe Skelettstrukturen zu skalieren, was ihren Einsatz in Szenarien einschränkt, in denen komplizierte Bewegungen erforderlich sind.

Wir wissen, dass Bedarf an einer zuverlässigen Bewegungssynthesemethode besteht, die in praktischen Szenarien angewendet werden kann. Allerdings sind diese Probleme nicht leicht zu überwinden. Was kann additionally die Lösung sein? Zeit für ein Treffen GenMM.

GenMM ist ein alternativer Ansatz, der auf der klassischen Idee der Bewegung nächster Nachbarn und der Bewegungsanpassung basiert. Es nutzt Movement Matching, eine in der Branche weit verbreitete Technik für Charakteranimationen, und erzeugt hochwertige Animationen, die natürlich wirken und sich an unterschiedliche lokale Kontexte anpassen.

GenMM ist ein generatives Modell, das verschiedene Bewegungen aus einer oder mehreren Beispielsequenzen extrahieren kann. Dies wird durch die Nutzung einer umfangreichen Bewegungserfassungsdatenbank als Annäherung an den gesamten natürlichen Bewegungsraum erreicht.

GenMM beinhaltet bidirektionale Ähnlichkeit als neue generative Kostenfunktion. Dieses Ähnlichkeitsmaß stellt sicher, dass die synthetisierte Bewegungssequenz nur Bewegungsfelder aus den bereitgestellten Beispielen enthält und umgekehrt. Dieser Ansatz behält die Qualität der Bewegungsanpassung bei und ermöglicht gleichzeitig generative Fähigkeiten. Um die Diversität weiter zu verbessern, nutzt es ein mehrstufiges Framework, das Bewegungsabläufe mit minimalen Verteilungsunterschieden im Vergleich zu den Beispielen schrittweise synthetisiert. Darüber hinaus wird ein bedingungsloser Rauscheingang in die Pipeline eingeführt, der vom Erfolg GAN-basierter Methoden in der Bildsynthese inspiriert ist, um sehr unterschiedliche Syntheseergebnisse zu erzielen.

Zusätzlich zu seiner Fähigkeit zur Erzeugung verschiedener Bewegungen erweist sich GenMM auch als vielseitiges Framework, das auf verschiedene Szenarien erweitert werden kann, die über die Möglichkeiten des Bewegungsmatchings allein hinausgehen. Dazu gehören Bewegungsvervollständigung, schlüsselbildgesteuerte Generierung, Endlosschleife und Bewegungszusammenfügung, was das breite Anwendungsspektrum demonstriert, das der generative Movement-Matching-Ansatz ermöglicht.


Besuche die Papier, GithubUnd Projektseite. Vergessen Sie nicht, mitzumachen unser 25k+ ML SubReddit, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com

🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an


Ekrem Çetinkaya erhielt seinen B.Sc. im Jahr 2018 und M.Sc. im Jahr 2019 von der Ozyegin-Universität, Istanbul, Türkiye. Er schrieb seinen M.Sc. Diplomarbeit über Bildrauschen mithilfe tiefer Faltungsnetzwerke. Er erhielt seinen Ph.D. Abschluss im Jahr 2023 an der Universität Klagenfurt, Österreich, mit seiner Dissertation mit dem Titel „Video Coding Enhancements for HTTP Adaptive Streaming Utilizing Machine Studying“. Seine Forschungsinteressen umfassen Deep Studying, Pc Imaginative and prescient, Videokodierung und Multimedia-Netzwerke.




Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here