Anonymisierung ist ein kritisches Downside im Zusammenhang mit Gesichtserkennungs- und Identifizierungsalgorithmen. Mit der zunehmenden Produktisierung dieser Technologien sind ethische Bedenken hinsichtlich der Privatsphäre und Sicherheit des Einzelnen entstanden. Die Fähigkeit, Personen anhand ihrer Gesichtsmerkmale zu erkennen und zu identifizieren, wirft Fragen zur Einwilligung, zur Kontrolle personenbezogener Daten und zum möglichen Missbrauch auf. Die aktuellen Tagging-Systeme in sozialen Netzwerken müssen das Downside des unerwünschten oder nicht genehmigten Erscheinens von Gesichtern auf Fotos angemessen angehen.
Kontroversen und ethische Bedenken haben den Stand der Technik bei Gesichtserkennungs- und Identifizierungsalgorithmen getrübt. Früheren Systemen fehlten angemessene Generalisierungs- und Genauigkeitsgarantien, was zu unbeabsichtigten Folgen führte. Gegenmanipulationstechniken wie Unschärfe und Maskierung wurden eingesetzt, um die Gesichtserkennung auszuschalten, sie verändern jedoch den Bildinhalt und sind leicht erkennbar. Es wurden auch gegnerische Generierungs- und Beschlagnahmungsmethoden entwickelt, aber Gesichtserkennungsalgorithmen werden immer besser, um solchen Angriffen standzuhalten.
In diesem Zusammenhang schlägt ein kürzlich von einem Forschungsteam der Binghamton College veröffentlichter neuer Artikel ein System zur Verbesserung der Privatsphäre vor, das Deepfakes nutzt, um Gesichtserkennungssysteme in die Irre zu führen, ohne die Bildkontinuität zu beeinträchtigen. Sie führen das Konzept „My Face My Selection“ (MFMC) ein, bei dem Einzelpersonen steuern können, auf welchen Fotos sie erscheinen, und ihre Gesichter für unbefugte Betrachter durch unterschiedliche Deepfakes ersetzen.
Die vorgeschlagene Methode, MFMC, zielt darauf ab, Deepfake-Versionen von Fotos mit mehreren Personen zu erstellen, basierend auf komplexen Zugriffsrechten, die von Einzelpersonen auf dem Bild gewährt werden. Das System arbeitet in einem sozialen Foto-Sharing-Netzwerk, in dem Zugriffsrechte professional Gesicht und nicht professional Bild definiert werden. Wenn ein Bild hochgeladen wird, können Freunde des Uploaders markiert werden, während die restlichen Gesichter durch Deepfakes ersetzt werden. Diese Deepfakes werden anhand verschiedener Kriterien sorgfältig ausgewählt, um sicherzustellen, dass sie sich quantitativ von den Originalgesichtern unterscheiden, aber kontextuelle und visuelle Kontinuität wahren. Die Autoren führen umfangreiche Auswertungen mit verschiedenen Datensätzen, Deepfake-Generatoren und Gesichtserkennungsansätzen durch, um die Wirksamkeit und Qualität des vorgeschlagenen Techniques zu überprüfen. MFMC stellt einen bedeutenden Fortschritt bei der Nutzung von Gesichtseinbettungen dar, um nützliche Deepfakes als Abwehr gegen Gesichtserkennungsalgorithmen zu erstellen.
Der Artikel zeigt die Anforderungen an einen Deepfake-Generator, der die Identität eines synthetischen Zielgesichts auf ein ursprüngliches Quellgesicht übertragen und dabei Gesichts- und Umgebungsattribute bewahren kann. Autoren integrieren mehrere Deepfake-Generatoren wie Nirkin et al., FTGAN, FSGAN und SimSwap in ihr Framework. Sie führen außerdem drei Zugriffsmodelle ein: Offenlegung durch Stellvertreter, Offenlegung durch explizite Autorisierung und Offenlegung auf Foundation von Zugriffsregeln, um die Teilnahme an sozialen Medien und die Privatsphäre des Einzelnen in Einklang zu bringen.
Die Bewertung des MFMC-Techniques umfasst die Bewertung der Verringerung der Gesichtserkennungsgenauigkeit unter Verwendung von sieben hochmodernen Gesichtserkennungssystemen und den Vergleich der Ergebnisse mit bestehenden datenschutzerhaltenden Methoden zur Gesichtsveränderung, wie z. B. CIAGAN und Deep Privateness. Die Bewertung zeigt die Wirksamkeit von MFMC bei der Reduzierung der Gesichtserkennungsgenauigkeit. Es unterstreicht seine Überlegenheit gegenüber anderen Methoden beim Systemdesign, der Produktionssystematisierung und der Bewertung gegenüber Gesichtserkennungssystemen.
Abschließend stellt der Artikel das MFMC-System als einen neuartigen Ansatz zur Lösung der Datenschutzbedenken vor, die mit Gesichtserkennungs- und Identifizierungsalgorithmen verbunden sind. Durch die Nutzung von Deepfakes und von Einzelpersonen gewährten Zugriffsrechten ermöglicht MFMC Benutzern die Kontrolle darüber, auf welchen Fotos sie erscheinen, und ersetzt ihre Gesichter durch unähnliche Deepfakes für unbefugte Betrachter. Die Evaluierung von MFMC zeigt seine Wirksamkeit bei der Reduzierung der Gesichtserkennungsgenauigkeit und übertrifft damit bestehende datenschutzschonende Methoden zur Gesichtsveränderung. Diese Forschung stellt einen bedeutenden Schritt zur Verbesserung der Privatsphäre im Zeitalter der Gesichtserkennungstechnologie dar und eröffnet Möglichkeiten für weitere Fortschritte in diesem Bereich.
Besuche die Papier. Vergessen Sie nicht, mitzumachen unser 25k+ ML SubReddit, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com
Empfohlene Instruments:
🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an
Mahmoud ist Doktorand im Bereich maschinelles Lernen. Er hält auch einen
Bachelor-Abschluss in Physik und Grasp-Abschluss in
Telekommunikations- und Netzwerksysteme. Seine aktuellen Bereiche von
Die Forschung befasst sich mit Pc Imaginative and prescient, Börsenvorhersage und Tiefgründigkeit
Lernen. Er verfasste mehrere wissenschaftliche Artikel über Personenre-
Identifizierung und Untersuchung der Robustheit und Stabilität von Tiefen
Netzwerke.