Hier ist eine verkürzte Ansicht eines API-Aufrufs.
methodology=put up path=https://<your-azure-ai-instance>.openai.azure.com//openai/deployments/text-embedding-ada-002/embeddings?api-version=2023-03-15-preview
api_version=2023-03-15-preview knowledge='{"enter": [[2964, 6234, 25, 220, 23, 198, 1213, 1292, 25, 829, 300, 1481, 9585, 16378, 271, 3923, ....]], "encoding_format": "base64"}' response_code=200
physique='{n "object": "listing",n "knowledge": [n {n "object": "embedding",n "index": 0,n "embedding": "lp..."n }n ],n "mannequin": "ada",n "utilization": {n "prompt_tokens": 336,n "total_tokens": 336n }n}n'
Am Ende habe ich eine Ausgabe wie:
INFO:llama_index.token_counter.token_counter:> [build_index_from_nodes] Complete embedding token utilization: 56230 tokens
> [build_index_from_nodes] Complete embedding token utilization: 56230 tokens
Chatbot
Ich verwende eine Chat-Schnittstelle Gradio. Sehen local-index-chat-azure.py
Es lädt den zuvor erstellten lokalen Index und nutzt LangChain in Kombination mit OpenAI, um eine Konversationsschnittstelle bereitzustellen.