فهرست منبع

feat: optimize xinference stream (#989)

takatost 1 سال پیش
والد
کامیت
18d3877151
1فایلهای تغییر یافته به همراه3 افزوده شده و 3 حذف شده
  1. 3 3
      api/core/third_party/langchain/llms/xinference_llm.py

+ 3 - 3
api/core/third_party/langchain/llms/xinference_llm.py

@@ -108,12 +108,12 @@ class XinferenceLLM(Xinference):
         Yields:
         Yields:
             A string token.
             A string token.
         """
         """
-        if isinstance(model, RESTfulGenerateModelHandle):
-            streaming_response = model.generate(
+        if isinstance(model, (RESTfulChatModelHandle, RESTfulChatglmCppChatModelHandle)):
+            streaming_response = model.chat(
                 prompt=prompt, generate_config=generate_config
                 prompt=prompt, generate_config=generate_config
             )
             )
         else:
         else:
-            streaming_response = model.chat(
+            streaming_response = model.generate(
                 prompt=prompt, generate_config=generate_config
                 prompt=prompt, generate_config=generate_config
             )
             )