forked from new_org/Project-Caffeine
docs(update):更新Arabica Sprint3系统架构设计说明文档和架构图文件名
Signed-off-by: gzkoala <guohao@gitconomy.org>
This commit is contained in:
|
Before Width: | Height: | Size: 25 KiB After Width: | Height: | Size: 25 KiB |
@@ -49,23 +49,23 @@ sequenceDiagram
|
||||
|
||||
User->>Client: "用 SWOT 框架分析一下量子计算,并查查最新文献"
|
||||
Client->>LLM: 传递自然语言意图
|
||||
|
||||
|
||||
%% 意图 1:查询文献
|
||||
LLM->>Client: 识别意图1,请求调用 search_arxiv
|
||||
Client->>Tools: handleToolCall('search_arxiv', {query: 'quantum computing'})
|
||||
Tools->>Arxiv: 发起 API 检索
|
||||
Arxiv-->>Tools: 返回文献元数据
|
||||
Tools-->>Client: 返回格式化文献列表
|
||||
|
||||
|
||||
%% 意图 2:框架分析
|
||||
LLM->>Client: 识别意图2,请求调用 fetch_framework_template
|
||||
Client->>Tools: handleToolCall('fetch_framework_template', {framework_name: 'swot'})
|
||||
Tools-->>Client: 返回纯文本 Prompt 并注入【强制刹车指令】
|
||||
|
||||
|
||||
%% 大模型思考与输出
|
||||
LLM->>Client: 停止调用工具,直接在聊天框输出分析报告
|
||||
LLM->>Client: 报告末尾主动询问:"是否需要保存?"
|
||||
|
||||
|
||||
%% 意图 3:保存落盘
|
||||
User->>Client: "是的,保存下来"
|
||||
Client->>LLM: 传递确认指令
|
||||
@@ -140,8 +140,8 @@ project-caffeine/
|
||||
### 3.3 系统模块架构图
|
||||
|
||||
*图 3-2:Sprint 3 组件架构与数据流*
|
||||

|
||||
|
||||

|
||||
|
||||
- **控制器层**:`toolsController` 接收工具调用请求,分发给对应的服务;`resourcesController` 处理资源读取请求(可复用原有逻辑,仅需扩展协议类型)。
|
||||
- **服务层**:
|
||||
@@ -209,4 +209,4 @@ Sprint 3 在 Sprint 2 的本地知识管理基础上,通过新增文献检索
|
||||
|
||||
## 许可声明
|
||||
|
||||
本文档采用 **知识共享署名--相同方式共享 4.0 国际许可协议 (CC BY--SA 4.0)** 进行许可,© 2025-2026 Gitconomy Research.
|
||||
本文档采用 **知识共享署名--相同方式共享 4.0 国际许可协议 (CC BY--SA 4.0)** 进行许可,© 2025-2026 Gitconomy Research.
|
||||
|
||||
Reference in New Issue
Block a user