Eine Gruppe von Forschern aus China hat WebGLM entwickelt: Ein webgestütztes Frage-Antwort-System basierend auf dem General Language Model (GLM)

0
24


Große Sprachmodelle (LLMs), darunter GPT-3, PaLM, OPT, BLOOM und GLM-130B, haben die Grenzen dessen, was Laptop in Bezug auf Sprache verstehen und produzieren können, erheblich erweitert. Eine der grundlegendsten Sprachanwendungen, die Beantwortung von Fragen, wurde aufgrund der jüngsten LLM-Durchbrüche erheblich verbessert. Vorhandenen Studien zufolge ist die Leistung der Closed-E book-QA und der In-Context-Studying-QA von LLMs mit der von überwachten Modellen vergleichbar, was zu unserem Verständnis der Merkfähigkeit von LLMs beiträgt. Aber selbst LLMs haben eine begrenzte Kapazität und bleiben hinter den menschlichen Erwartungen zurück, wenn sie mit Problemen konfrontiert werden, die beträchtliches außergewöhnliches Wissen erfordern. Daher konzentrierten sich die jüngsten Versuche auf den Aufbau von LLMs, die mit externem Wissen, einschließlich Retrieval und On-line-Suche, erweitert wurden.

WebGPT ist beispielsweise in der Lage, on-line zu surfen, lange Antworten auf komplizierte Anfragen zu geben und ebenso hilfreiche Referenzen bereitzustellen. Trotz seiner Beliebtheit muss der ursprüngliche WebGPT-Ansatz noch weithin übernommen werden. Erstens basiert es auf zahlreichen Anmerkungen zu Looking-Verläufen auf Expertenebene, intestine geschriebenen Antworten und der Kennzeichnung von Antwortpräferenzen, was allesamt teure Ressourcen, viel Zeit und umfassende Schulung erfordert. Zweitens, indem das System angewiesen wird, mit einem Webbrowser zu interagieren, Bedienungsanweisungen zu erteilen (z. B. „Suchen“, „Lesen“ und „Zitieren“) und dann relevantes Materials aus On-line-Quellen sammelt, der Ansatz des Verhaltensklonens (d. h. Nachahmung). Lernen) erfordert, dass sein Grundmodell, GPT-3, menschlichen Experten ähnelt.

Schließlich erfordert die Multi-Flip-Struktur des Surfens im Web umfangreiche Rechenressourcen und kann für die Benutzererfahrung übermäßig träge sein. Beispielsweise benötigt WebGPT-13B etwa 31 Sekunden, um auf eine 500-Token-Anfrage zu antworten. Forscher der Tsinghua-Universität, der Beihang-Universität und Zhipu.AI stellen in dieser Studie WebGLM vor, ein solides webgestütztes Qualitätssicherungssystem, das auf dem 10-Milliarden-Parameter-Normal Language Mannequin (GLM-10B) basiert. Abbildung 1 zeigt eine Illustration davon. Es ist effektiv, erschwinglich, reagiert auf menschliche Vorlieben und ist, was am wichtigsten ist, von einem Kaliber, das WebGPT ebenbürtig ist. Um eine gute Leistung zu erzielen, verwendet das System mehrere neuartige Ansätze und Designs, darunter einen LLM-augmentierten Retriever, einen zweistufigen Retriever, der feinkörniges LLM-destilliertes Abrufen mit einer grobkörnigen Websuche kombiniert.

Die Fähigkeit von LLMs wie GPT-3, spontan die richtigen Referenzen zu akzeptieren, ist die Inspirationsquelle für diese Technik, die möglicherweise verfeinert wird, um kleinere Dense Retriever zu verbessern. Ein GLM-10B-basierter Antwortgenerator, der über LLM-In-Context-Studying gebootstrappt und anhand zitierter, langformatiger QA-Beispiele trainiert wird, wird als Bootstrapped-Generator bezeichnet. LLMs können bereit sein, qualitativ hochwertige Daten mithilfe angemessener zitationsbasierter Filterung bereitzustellen, anstatt sich beim Schreiben in WebGPT auf teure menschliche Experten zu verlassen. Ein Bewerter, der anhand der „Daumen hoch“-Signale der Benutzer aus On-line-QA-Foren unterrichtet wird, kann die Präferenzen der menschlichen Mehrheit verstehen, wenn es um verschiedene Antworten geht.

Abbildung 1 zeigt eine Momentaufnahme der Antwort von WebGLM auf eine Beispielabfrage mit Hyperlinks zu On-line-Ressourcen.

Sie zeigen, dass eine geeignete Datensatzarchitektur im Vergleich zur Expertenkennzeichnung von WebGPT zu einem qualitativ hochwertigen Scorer führen könnte. Die Ergebnisse ihrer quantitativen Ablationstests und der eingehenden menschlichen Bewertung zeigen, wie effizient und effektiv das WebGLM-System ist. Insbesondere übertrifft WebGLM (10B) WebGPT (175B) in seinem Turing-Take a look at und übertrifft das ähnlich große WebGPT (13B). WebGLM ist zum Zeitpunkt dieser Einreichung eines der größten öffentlich verfügbaren, webbasierten QA-Systeme, dank seiner Weiterentwicklung gegenüber dem einzigen öffentlich zugänglichen System, Perplexity.ai. Zusammenfassend stellen sie in diesem Dokument Folgendes dar: • Sie bauen WebGLM auf, ein effektives webbasiertes Qualitätssicherungssystem mit menschlichen Präferenzen. Die Leistung ist ähnlich wie WebGPT (175B) und wesentlich besser als WebGPT (13B) mit ähnlicher Größe.

Es übertrifft auch Perplexity.ai, ein beliebtes System, das von LLMs und Suchmaschinen betrieben wird. • Sie identifizieren die Einschränkungen von WebGPT bei realen Bereitstellungen. Sie schlagen eine Reihe neuer Designs und Strategien vor, um die hohe Genauigkeit von WebGLM zu ermöglichen und gleichzeitig effiziente und kostengünstige Vorteile gegenüber Basissystemen zu erzielen. • Sie formulieren die menschlichen Bewertungsmetriken für die Bewertung webgestützter Qualitätssicherungssysteme. Umfangreiche menschliche Bewertungen und Experimente belegen die starke Leistungsfähigkeit von WebGLM und liefern Einblicke in die zukünftigen Entwicklungen des Techniques. Die Code-Implementierung ist auf GitHub verfügbar.


Besuche die Papier Und Github. Vergessen Sie nicht, mitzumachen unser 24k+ ML SubReddit, Discord-Kanal, Und E-Mail-Newsletter, wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an Asif@marktechpost.com


🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an


Aneesh Tickoo ist Beratungspraktikantin bei MarktechPost. Derzeit absolviert er seinen Bachelor-Abschluss in Datenwissenschaft und künstlicher Intelligenz am Indian Institute of Know-how (IIT) in Bhilai. Die meiste Zeit verbringt er mit der Arbeit an Projekten, die darauf abzielen, die Leistungsfähigkeit des maschinellen Lernens zu nutzen. Sein Forschungsinteresse gilt der Bildverarbeitung und er ist leidenschaftlich daran interessiert, Lösungen dafür zu entwickeln. Er liebt es, mit Menschen in Kontakt zu treten und an interessanten Projekten mitzuarbeiten.




Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here