DeerFlow 系列教程 第十三篇 | 大模型适配——多 Provider 支持与思考模式

张开发
2026/4/16 9:59:30 15 分钟阅读

分享文章

DeerFlow 系列教程 第十三篇 | 大模型适配——多 Provider 支持与思考模式
DeerFlow 系列教程 第十三篇本篇教程继续模块四:高级功能与扩展,全面剖析 DeerFlow 的大模型适配层。我们将深入理解模型工厂的动态加载机制、七种 Provider 实现的设计差异、思考模式(Thinking Mode)在不同模型架构下的适配策略、Responses API 的 Codex 集成,以及统一凭证加载的安全设计。前置知识在开始之前,建议你已阅读:第 07 篇:Lead Agent 深度解析——理解 Agent 如何创建和使用模型实例第 08 篇:中间件体系——了解LlmErrorHandlingMiddleware在模型调用中的拦截机制第 12 篇:Tools 工具体系——理解工具绑定(bind_tools)如何与模型交互一、模型工厂(create_chat_model())1.1 模型在架构中的位置在 DeerFlow 中,大模型(LLM)是 Agent 的"大脑"。每一次 Agent 推理循环都需要调用大模型来生成决策——选择工具、生成回复或进行思考。create_chat_model()

更多文章