这边使用dify的千问模型来接miniclaw,但是出现:
❌ 大模型返回了非文本内容,无法生成可读答复。
返回内容(截断):
{"error": "stream_parse_failed", "exception": "read llm model failed: request failed: req_id: 8e185c3d59 PluginInvokeError: {"args":{"description":"[models] Error: 'description'"},"error_type":"InvokeError","message":"[models] Error: 'description'"}"}
的问题,已经排查确认不是大模型访问不到或者没有token的三方因素,拿ai去找了下原因说是因为:
utils/mini_claw_schemas.py 中的 TOOL_SCHEMAS 是 Mini Claw 子工具(如 list_skill_files、read_skill_file、run_skill_command 等)的 JSON Schema。这些 schema 里的 properties 大多缺少 description,而 Qwen、SiliconFlow 等 LLM API 的 function calling 要求每个参数都有 description,从而在解析时触发 KeyError('description')。
看一下可不可以再使用这些模型的时候如果没有description时可以默认增加一个description?
这边使用dify的千问模型来接miniclaw,但是出现:
的问题,已经排查确认不是大模型访问不到或者没有token的三方因素,拿ai去找了下原因说是因为:
看一下可不可以再使用这些模型的时候如果没有description时可以默认增加一个description?