Forscher der Princeton College und Google DeepMind haben ein neues Framework namens „Tree of Ideas“ (ToT) entwickelt. Einfach ausgedrückt ist ToT wie eine Roadmap für Sprachmodelle, die sie durch eine Reihe von „Gedanken“ oder zusammenhängenden Texteinheiten führt. Diese „Gedanken“ dienen als Sprungbrett und helfen dem Modell, den Weg zur Lösung eines Issues zu finden.
Stellen Sie sich vor, Sie befinden sich in einem Labyrinth. Sie könnten ziellos umherwandern und hoffen, über den Ausgang zu stolpern. Oder Sie könnten innehalten, Ihre Optionen abwägen und eine kalkulierte Entscheidung darüber treffen, welchen Weg Sie einschlagen möchten. Genau das ermöglicht ToT Sprachmodellen.
ToT ermöglicht es Sprachmodellen, mehrere Pfade zu berücksichtigen, die Vor- und Nachteile abzuwägen und über die nächste Vorgehensweise zu entscheiden. Es ist, als würde man dem Modell einen Kompass und eine Karte geben und es in die Lage versetzen, fundierte Entscheidungen zu treffen, anstatt sich auf Vermutungen zu verlassen.
Eines der herausragenden Merkmale von ToT ist seine Fähigkeit, „nach vorne zu schauen“ und „zurückzugehen“. So wie ein Schachspieler die Züge seines Gegners vorhersieht, ermöglicht ToT Sprachmodellen, mögliche Ergebnisse vorherzusehen und ihre Strategie entsprechend anzupassen. Wenn ein bestimmter Weg nicht erfolgversprechend erscheint, kann das Modell einen anderen Weg zurückverfolgen und erkunden.
Die Forscher testeten ToT an drei neuartigen Aufgaben, die einen erheblichen Planungs- und Suchaufwand erforderten. Die Ergebnisse waren beeindruckend: ToT verbesserte die Problemlösungsfähigkeiten der Sprachmodelle deutlich.
- Herausforderung zum mathematischen Denken (24er-Spiel)
- Kreatives Schreiben
- Mini-Kreuzworträtsel
Das „Tree of Ideas“-Framework ist ein bedeutender Fortschritt auf dem Gebiet der Sprachmodellinferenz. Indem es eine bewusstere Entscheidungsfindung und strategische Planung ermöglicht, ebnet ToT den Weg für ausgefeiltere und leistungsfähigere Sprachmodelle.
Während wir weiterhin die Grenzen dessen erweitern, was in den Bereichen KI und maschinelles Lernen möglich ist, bin ich gespannt, wie dieses modern Framework die Zukunft unseres Fachgebiets prägen wird.
Der Artikel verwendet drei Aufgaben als Datensätze zur Bewertung des Tree-of-Thought-Ansatzes:
- 24-Punkte-Spiel: Dies ist ein mathematisches Kartenspiel, bei dem dem Spieler vier Zahlen vorgegeben werden und das Ziel darin besteht, arithmetische Operationen (+, -, *, /) zu verwenden, um die Zahlen gleich 24 zu machen. Das Papier verwendet einen Datensatz von 1000 Zufällig generierte 24-Punkte-Aufgaben.
- Kreuzworträtsel: Der Artikel verwendet einen Datensatz von 1000 Kreuzworträtseln, der aus dem Mini-Kreuzworträtsel-Datensatz der New York Occasions generiert wurde.
- Story-Vervollständigung: Das Papier verwendet einen Datensatz von 1000 Story-Eingabeaufforderungen aus dem ROC Tales-Datensatz.
Die Bewertungsergebnisse des Tree-of-Thought (ToT)-Ansatzes lauten wie folgt:
- 24-Punkte-Spiel:
- IO-Eingabeaufforderung: 7,3 % Erfolgsquote
- CoT-Eingabeaufforderung: 4,0 % Erfolgsquote
- CoT-SC (okay=100): 9,0 % Erfolgsquote
- ToT (b=1): 45 % Erfolgsquote
- ToT (b=5): 74 % Erfolgsquote
- IO + Refine (okay=10): 27 % Erfolgsquote
- IO (Better of 100): 33 % Erfolgsquote
- CoT (Better of 100): 49 % Erfolgsquote
Kreuzworträtsel:
- IO-Eingabeaufforderung: 38,7 % Erfolgsquote
- CoT-Eingabeaufforderung: 40,6 % Erfolgsquote
- ToT: 78 % Erfolgsquote
- ToT + bester Zustand: 82,4 % Erfolgsquote
- ToT – Beschneiden: 65,4 % Erfolgsquote
Abschluss der Geschichte:
- GPT-4-Kohärenzwerte: IO: 6,19, CoT: 6,93, ToT: 7,56
- Vergleich der menschlichen Kohärenz: CoT > ToT: 21, ToT > CoT: 41, Ähnlich: 38
Die Ergebnisse zeigen, dass der ToT-Ansatz den IO- und CoT-Ansätzen im Hinblick auf Erfolgsquote und Kohärenz im Allgemeinen überlegen ist. Der ToT-Ansatz profitiert auch vom iterativen Verfeinerungsprozess, der seine Leistung weiter verbessert.
Weißes Papier – 2305.10601.pdf (arxiv.org)
- IO: Eingabe-Ausgabe. Dies bezieht sich auf den traditionellen Ansatz, bei dem ein Sprachmodell die Ausgabe direkt aus der Eingabe generiert.
- CoT: Gedankenkette. Dies ist ein Ansatz, bei dem das Sprachmodell eine Folge von Gedanken generiert, die zur endgültigen Ausgabe führen.
- ToT: Baum des Gedankens. Dies ist der in der Arbeit vorgeschlagene Ansatz, bei dem das Sprachmodell einen Gedankenbaum generiert und den besten Weg zur endgültigen Ausgabe auswählt.
- CoT-SC: Gedankenkette mit Selbstkonsistenz. Dies ist eine Variante des CoT-Ansatzes, bei der das Sprachmodell die Konsistenz seines Denkprozesses prüft.
- b: Breite. Dies bezieht sich auf die Anzahl der Gedanken oder Pfade, die das Sprachmodell bei jedem Schritt des ToT-Ansatzes untersucht.
- okay: Dies bezieht sich auf die Anzahl der Stichproben oder Iterationen, die in den Ansätzen CoT-SC und IO + Refine verwendet werden.
- GPT-4: Generative Pretrained Transformer 4. Dies ist die Model des in der Bewertung verwendeten Sprachmodells.
- Verfeinern: Dies bezieht sich auf den iterativen Verfeinerungsprozess, der zur Verbesserung der Ausgabe der IO- und ToT-Ansätze verwendet wird.