Der Rucksack, der die Voreingenommenheit von ChatGPT löst: Rucksack-Sprachmodelle sind alternative KI-Methoden für Transformer

0
25


KI-Sprachmodelle werden zu einem wesentlichen Bestandteil unseres Lebens. Wir verwenden seit Jahrzehnten Google, um auf Informationen zuzugreifen, aber jetzt wechseln wir langsam zu ChatGPT. Es bietet prägnante Antworten, klare Erklärungen und es ist in der Regel schneller, die gesuchten Informationen zu finden.

Diese Modelle lernen aus den Daten, die wir im Laufe der Jahre erstellt haben. Infolgedessen haben wir unsere Vorurteile auf die KI-Modelle übertragen, und dies ist ein Diskussionsthema in diesem Bereich. Eine besondere Voreingenommenheit, die Aufmerksamkeit erregt hat, ist die geschlechtsspezifische Voreingenommenheit bei der Pronomenverteilung, bei der Modelle dazu neigen, geschlechtsspezifische Pronomen wie „er“ oder „sie“ basierend auf dem Kontext zu bevorzugen.

Die Bekämpfung dieser geschlechtsspezifischen Voreingenommenheit ist von entscheidender Bedeutung, um eine faire und integrative Sprachgenerierung sicherzustellen. Wenn Sie beispielsweise den Satz „Der CEO glaubt, dass…“ beginnen, fährt das Modell mit fort Erund wenn Sie das ersetzen CEO mit dem Krankenschwesterder nächste Token wird sie. Dieses Beispiel dient als interessante Fallstudie zur Untersuchung von Vorurteilen und zur Erforschung von Methoden zu deren Abschwächung.

Es stellt sich heraus, dass der Kontext eine entscheidende Rolle bei der Entstehung dieser Vorurteile spielt. Durch Ersetzen CEO Mit einem Beruf, der stereotyp mit einem anderen Geschlecht assoziiert wird, können wir die beobachtete Voreingenommenheit tatsächlich umkehren. Aber hier liegt die Herausforderung: eine konsistente Entzerrung in allen verschiedenen Kontexten zu erreichen CEO erscheint, ist keine leichte Aufgabe. Wir wollen Interventionen, die unabhängig von der konkreten State of affairs zuverlässig und vorhersehbar wirken. Schließlich sind Interpretierbarkeit und Kontrolle der Schlüssel zum Verständnis und zur Verbesserung von Sprachmodellen. Leider erfüllen die aktuellen Transformer-Modelle diese Kriterien trotz ihrer beeindruckenden Leistung nicht ganz. Ihre kontextuellen Darstellungen führen zu allen möglichen komplexen und nichtlinearen Effekten, die vom jeweiligen Kontext abhängen.

Wie können wir diese Herausforderungen bewältigen? Wie können wir die Voreingenommenheit bekämpfen, die wir in großen Sprachmodellen eingeführt haben? Sollten wir Transformatoren verbessern oder sollten wir uns neue Strukturen einfallen lassen? Die Antwort ist Rucksack-Sprachmodelle.

Rucksack LM geht die Herausforderung der Debiasierung von Pronomenverteilungen an, indem es nicht kontextuelle Darstellungen nutzt, die als Sinnesvektoren bekannt sind. Diese Vektoren erfassen verschiedene Aspekte der Bedeutung eines Wortes und seiner Rolle in verschiedenen Kontexten und verleihen Wörtern mehrere Persönlichkeiten.

Übersicht über Rucksack LM. Quelle: https://arxiv.org/pdf/2305.16765.pdf

In Rucksack-LMsVorhersagen sind logarithmisch lineare Kombinationen nicht kontextueller Darstellungen, die als Sinnvektoren bezeichnet werden. Jedes Wort im Vokabular wird durch mehrere Sinnesvektoren repräsentiert, die unterschiedliche erlernte Aspekte der möglichen Rollen des Wortes in verschiedenen Kontexten kodieren.

Diese Sinnesvektoren sind spezialisiert und können in bestimmten Kontexten prädiktiv nützlich sein. Die gewichtete Summe der Sinnvektoren für Wörter in einer Sequenz bildet die Rucksack Darstellung jedes Wortes, wobei die Gewichte durch eine Kontextualisierungsfunktion bestimmt werden, die auf die gesamte Sequenz einwirkt. Durch die Nutzung dieser Sinnesvektoren Rucksack Modelle ermöglichen präzise Interventionen, die sich in allen Kontexten vorhersehbar verhalten.

Das bedeutet, dass wir nicht kontextbezogene Änderungen am Modell vornehmen können, die sein Verhalten nachhaltig beeinflussen. Im Vergleich zu Transformer-Modellen Rucksack Modelle bieten eine transparentere und besser verwaltbare Benutzeroberfläche. Sie bieten präzise Eingriffe, die leichter zu verstehen und zu kontrollieren sind. Darüber hinaus, Rucksack Auch bei der Leistung gehen die Modelle keine Kompromisse ein. Tatsächlich erzielen sie Ergebnisse, die denen von Transformers ebenbürtig sind, und bieten gleichzeitig eine verbesserte Interpretierbarkeit.

b0L sdYK2s8C6ua0olI3MxlMkzSFzvnZQkcjkDIWuysxuXP7PnulNS9gpWyBmQaWrNHD8HCMcLXOpFclaglMMbFoR1CJUJ8ITL6awCbsfd Rl
Beispiel für Sinnesvektoren. Quelle: https://backpackmodels.science/

Sinnesvektoren in Rucksack Modelle kodieren umfassende Vorstellungen von Wortbedeutungen und übertreffen bei lexikalischen Ähnlichkeitsaufgaben die Worteinbettungen modernster Transformer-Modelle. Darüber hinaus demonstrieren Eingriffe in Sinnesvektoren, wie etwa die Verringerung der geschlechtsspezifischen Voreingenommenheit in Berufswörtern, den Kontrollmechanismus, den Backpack-Modelle bieten. Durch die Verkleinerung des mit der geschlechtsspezifischen Voreingenommenheit verbundenen Sinnesvektors können in begrenzten Umgebungen erhebliche Verringerungen der kontextuellen Vorhersageunterschiede erreicht werden.


Besuche die Papier Und Projekt. Vergessen Sie nicht, mitzumachen unser 24k+ ML SubReddit, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com


🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an


Ekrem Çetinkaya erhielt seinen B.Sc. im Jahr 2018 und M.Sc. im Jahr 2019 von der Ozyegin-Universität, Istanbul, Türkiye. Er schrieb seinen M.Sc. Diplomarbeit über Bildrauschen mithilfe tiefer Faltungsnetzwerke. Er erhielt seinen Ph.D. Abschluss im Jahr 2023 an der Universität Klagenfurt, Österreich, mit seiner Dissertation mit dem Titel „Video Coding Enhancements for HTTP Adaptive Streaming Utilizing Machine Studying“. Seine Forschungsinteressen umfassen Deep Studying, Laptop Imaginative and prescient, Videokodierung und Multimedia-Netzwerke.




Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here