Verwendung von Azure OpenAI für einen benutzerdefinierten Chatbot | von Rahul Agarwal | Juni 2023

0
29


Hier ist eine verkürzte Ansicht eines API-Aufrufs.

methodology=put up path=https://<your-azure-ai-instance>.openai.azure.com//openai/deployments/text-embedding-ada-002/embeddings?api-version=2023-03-15-preview
api_version=2023-03-15-preview knowledge='{"enter": [[2964, 6234, 25, 220, 23, 198, 1213, 1292, 25, 829, 300, 1481, 9585, 16378, 271, 3923, ....]], "encoding_format": "base64"}'

response_code=200
physique='{n "object": "listing",n "knowledge": [n {n "object": "embedding",n "index": 0,n "embedding": "lp..."n }n ],n "mannequin": "ada",n "utilization": {n "prompt_tokens": 336,n "total_tokens": 336n }n}n'

Am Ende habe ich eine Ausgabe wie:

INFO:llama_index.token_counter.token_counter:> [build_index_from_nodes] Complete embedding token utilization: 56230 tokens
> [build_index_from_nodes] Complete embedding token utilization: 56230 tokens

Chatbot

Ich verwende eine Chat-Schnittstelle Gradio. Sehen local-index-chat-azure.py Es lädt den zuvor erstellten lokalen Index und nutzt LangChain in Kombination mit OpenAI, um eine Konversationsschnittstelle bereitzustellen.

Ketten, die an der Reaktion auf eine Aufforderung beteiligt sind
Ketten, die an der Reaktion auf eine Aufforderung beteiligt sind



Source link

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here