Sich an Gespräche erinnern: Erstellen von Chatbots mit Kurz- und Langzeitgedächtnis auf AWS | von Arun Shankar | Juni 2023

0
24


Bisher haben wir eine Reihe von Szenarien untersucht, die häufig in Gesprächen auftreten. Wir haben Techniken für den Umgang mit gelegentlichem Austausch oder „Geplauder“ untersucht, indem wir das LLM direkt zur Beantwortung von Fragen im offenen Bereich genutzt haben, den RAG-Ansatz für Anfragen im geschlossenen Bereich eingesetzt und frühere Gespräche abgerufen haben. Jetzt werden wir uns mit komplexeren Szenarien befassen und mögliche Wege zur Verbesserung der Fähigkeiten des Bots erkunden.

Umgang mit gestapelten Runden

In Szenarien, in denen der Wechsel der Gesprächsrunden vom herkömmlichen Hin- und Her-Konversationsmuster abweicht, kann eine komplexe Scenario entstehen, wenn ein menschlicher Benutzer mehrere separate Abfragen oder Anweisungen in schneller Folge eingibt, ohne dazwischen auf eine Antwort zu warten. Für diese einzigartige Kind der Interaktion gibt es keinen allgemein akzeptierten Begriff, da sie sich vom traditionellen Flip-Taking-Modell löst. Um dies zu bewältigen, kann ein System implementiert werden, das alle gestapelten Eingaben des Benutzers abwartet und empfängt, bevor eine Antwort generiert wird. Das System kann dann die Eingaben konsolidieren, indem es sie entweder zu einer einzigen konsolidierten Eingabe zur Antwortgenerierung zusammenführt oder einzelne Antworten für jede Abfrage generiert und diese später konsolidiert. Diese Mechanismen stellen sicher, dass der Kontext des Gesprächs erhalten bleibt und dass geeignete Antworten generiert werden, wodurch das gesamte Gesprächserlebnis für den Benutzer verbessert wird.

Weiterleitung an menschliche Agenten

Ein weiteres Szenario, das im Unternehmensumfeld, insbesondere bei Kundendienstmitarbeitern, sehr beliebt ist, umfasst die Implementierung von Logik, um den nahtlosen Übergang von Anfragen von einem Bot zu einem menschlichen Agenten zu erleichtern. Diese Logik kommt ins Spiel, wenn der Bot nicht in der Lage ist, relevante Informationen abzurufen oder eine Antwort auf der Grundlage verifizierter Quellen zu validieren, sodass die Einschaltung eines menschlichen Agenten erforderlich ist. Diese Funktionalität kann verschiedene Formen annehmen, einschließlich der Möglichkeit für Benutzer, auf Wunsch direkt mit einem menschlichen Agenten zu kommunizieren. Um dies zu erreichen, ist es erforderlich, die Absicht des Benutzers genau zu erkennen und eine reibungslose und effiziente Übertragung komplexer oder sensibler Abfragen vom Bot an menschliche Agenten sicherzustellen, um letztendlich das gesamte Benutzererlebnis zu verbessern. Wichtig ist, dass dieser Prozess die Sitzung nicht beendet, sondern sie vielmehr an einen menschlichen Agenten weiterleitet, wodurch die Kontinuität der Benutzerinteraktion gewährleistet wird.

Umgang mit nicht schlüssigen Sitzungen

Häufig bleiben Gespräche im Fluss, was besondere Herausforderungen bei der Verwaltung von Chatsitzungen mit sich bringt, die nicht zu einem endgültigen Abschluss kommen. Solche ergebnislosen Sitzungen zu erkennen und Strategien zu entwickeln, um damit umzugehen, ist ein wichtiger Aspekt der KI-Gesprächsdomäne. Darüber hinaus ist es wichtig, diese unvollständigen Gespräche angemessen zu kategorisieren, um sicherzustellen, dass sie sowohl im Kurzzeit- als auch im Langzeitgedächtnis gespeichert werden. Während es wichtig ist, sie für sofortige Folgemaßnahmen im unmittelbaren Datenspeicher zu speichern, hängt die Entscheidung, sie zu kodieren und in das Langzeitgedächtnis zu übertragen, von mehreren Faktoren ab, darunter Relevanz, Potenzial für zukünftige Benutzerinteraktionen und Überlegungen zur Datenspeicherung. Diese Dualität der Gedächtnissysteme ermöglicht einen umfassenden Ansatz zur Verwaltung und zum Lernen aus abgebrochenen Dialogen.

Umgang mit Konnektivitätsproblemen

Eine Variante des oben genannten Szenarios besteht darin, Störungen zu beheben, die durch einen Verbindungsverlust während eines Gesprächs verursacht werden. Eine zuverlässige Lösung für dieses Szenario besteht darin, über verschiedene Backend-Strategien eine dauerhafte Verbindung zwischen der Chat-Benutzeroberfläche und dem Server herzustellen. Der Server kann den Gesprächsverlauf speichern und regelmäßig speichern und so den gesamten Dialogaustausch schützen. Cookies können zum Speichern von Sitzungs-IDs oder Konversations-IDs verwendet werden, wodurch ein nahtloser Abruf des Konversationsverlaufs des Benutzers ermöglicht wird, wenn die Konversation nach einer Unterbrechung wieder aufgenommen wird. Diese Cookies können auch die letzten Eingaben des Benutzers vorübergehend speichern und so den Abruf und die Übertragung der Daten an den Server ermöglichen, sobald die Verbindung wiederhergestellt ist. Dieser Ansatz gewährleistet, dass bei Verbindungsunterbrechungen keine Benutzereingaben verloren gehen.

Stimmungsverfolgung

Um sinnvolle Gespräche zu ermöglichen, ist es von größter Bedeutung, die Stimmung hinter der Äußerung eines Benutzers zu verstehen. Durch die Integration von Sentiment-Monitoring können Chatbots diese Informationen nutzen, um ihre Antworten zu verbessern und Benutzerinteraktionen effektiv abzuwickeln. Über das bloße Erkennen der Benutzerabsicht hinaus ist es von entscheidender Bedeutung, die Stimmung der Benutzeräußerungen nach der Bot-Reaktion zu verfolgen. Dieser Prozess kann durch die Nutzung des LLM selbst effizient ausgeführt werden. Dadurch kann der Chatbot geschickt mit verschiedenen Szenarien umgehen, beispielsweise mit aufeinanderfolgenden negativen Gefühlen, die möglicherweise ein menschliches Eingreifen erfordern, um einen optimalen Gesprächsfluss zu gewährleisten.

Bewältigen langer Abstände zwischen den Runden

Ein weiterer wichtiger Aspekt des Chatbot-Designs besteht darin, Szenarien zu berücksichtigen, in denen es zu erheblichen Verzögerungen zwischen den Benutzerrundgängen kommt. Diese Scenario kann auftreten, wenn Benutzer während des Gesprächs abgelenkt sind oder häufig nach Informationen suchen, sodass der Chatbot Kohärenz und Kontext im Gespräch aufrechterhalten muss. Durch die direkte Nutzung des LLM zusammen mit zusätzlichen Zeiterfassungsmodulen können Chatbots diese Verzögerungen effektiv bewältigen und so ein nahtloses Gesprächserlebnis gewährleisten. Dieses Szenario steht in engem Zusammenhang mit dem zuvor diskutierten nicht schlüssigen Sitzungsszenario und unterstreicht die Notwendigkeit eines umfassenden Gesprächsmanagements.

Beim Entwerfen von Chatbot-Systemen müssen zahlreiche einzigartige Szenarien und Eckfälle berücksichtigt werden, die die Implementierung externer Module und Komponenten erfordern. Durch die Unterstützung dieser zusätzlichen Szenarien können Chatbots dynamischer werden und besser auf die Einführung in Unternehmen vorbereitet werden, sodass sie in der Lage sind, reale praktische Herausforderungen zu bewältigen.

Die Erweiterung von Chatbots mit Gedächtnis ist ein wichtiger Fortschritt in der künstlichen Intelligenz. AWS spielt eine Schlüsselrolle bei der Entwicklung fortschrittlicher kognitiver Architekturen für Unternehmen. Diese Chatbots können sich an vergangene Gespräche erinnern, auf zuverlässige Quellen zugreifen und genaue Antworten geben. Durch Anpassungsfähigkeit in Echtzeit und personalisierte Interaktionen verbessern Chatbots mit Kurzzeitgedächtnis das Benutzererlebnis und die Kundenzufriedenheit. Darüber hinaus werden Chatbots mit Langzeitgedächtnis zu virtuellen Wissensspeichern, die die Entscheidungsfindung verbessern und genaue Informationen liefern. Der Einsatz erweiterter Chatbots mit Speicher, unterstützt von AWS, hilft Unternehmen, eine höhere Produktivität und Effizienz im Kundenservice zu erreichen.

In Zukunft werden sich Chatbots weiterentwickeln und erweiterte Funktionen wie die Verbindung zu internen Systemen, das Durchführen von API-Aufrufen über das Web und die Erfassung von Entitäten und Faktenwissen in ihrem Langzeitgedächtnis integrieren. Diese Chatbots gehen über einfache Gespräche hinaus und nutzen verschiedene Formen des Langzeitgedächtnisses, wie etwa Wissensgraphen, um Informationen zu speichern und abzurufen.

Durch die Nutzung ihrer umfangreichen Speicherbanken können Chatbots vergangenes Wissen mit neu verfügbaren Fakten kombinieren und so progressive Ideen und Erkenntnisse generieren. Sie werden aktiv nach neuen Informationen suchen, ihre Wissensbestände aktualisieren und ihre Entscheidungsprozesse verfeinern.

Letztendlich wird die Synergie zwischen Gedächtnis, Konnektivität und Lernen in Chatbots Unternehmen zu beispielloser Produktivität, Effizienz und Kundenzufriedenheit verhelfen. Angesichts des grenzenlosen Potenzials erweiterter Chatbots am Horizont bietet die Zukunft grenzenlose Möglichkeiten, die Artwork und Weise, wie wir interagieren, lernen und Innovationen entwickeln, zu verändern!



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here