DeepSeek 聊天模型节点#
使用 DeepSeek 聊天模型节点,将 DeepSeek 的聊天模型与对话式 智能代理(agents) 集成。 本页面提供 DeepSeek 聊天模型节点的参数说明以及相关资源链接。
凭据
有关此节点的身份验证信息,请参阅此处。
子节点中的参数解析#
在处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。
大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些项目,并输出结果。你可以使用表达式引用输入项,节点会依次为每个项目解析该表达式。例如,给定五个 name 值作为输入,表达式 {{ $json.name }} 会依次解析为每一个名称。
而在子节点中,表达式始终解析为第一个项目。例如,同样输入五个 name 值,表达式 {{ $json.name }} 始终指向第一个名称。
节点参数#
模型 (Model)#
选择用于生成回复的模型。 n8n 会从 DeepSeek 动态加载模型,你只能看到你的账户可用的模型。
节点选项#
使用以下选项进一步调整节点行为。
基础 URL (Base URL)#
在此输入一个 URL,以覆盖 API 的默认地址。
频率惩罚 (Frequency Penalty)#
控制模型重复自身内容的可能性。值越高,模型自我重复的概率越低。
最大 Token 数 (Maximum Number of Tokens)#
设置生成内容所使用的最大 token 数量,从而限制回复长度。
响应格式 (Response Format)#
选择 文本(Text) 或 JSON。选择 JSON 可确保模型返回有效的 JSON 格式内容。
存在惩罚 (Presence Penalty)#
控制模型引入新话题的可能性。值越高,模型更倾向于讨论新主题。
采样温度 (Sampling Temperature)#
控制生成过程的随机性。较高的温度会产生更多样化的输出,但也会增加“幻觉”(hallucinations)的风险。
超时时间 (Timeout)#
设置请求的最大等待时间(单位:毫秒)。
最大重试次数 (Max Retries)#
设置请求失败后最多重试的次数。
Top P#
用于设定生成时考虑的概率阈值。较低的值会忽略概率较小的选项,使输出更加集中和确定。
模板与示例#
🐋🤖 DeepSeek AI Agent + Telegram + 长期记忆 🧠 作者:Joseph LePage 查看模板详情
🤖 面向汽车服务的 AI 内容生成 🚘 自动化你的社交媒体📲! 作者:N8ner 查看模板详情
使用 Notion MCP、DeepSeek AI 和 WordPress 自动化博客内容创作 作者:Dr. Firas 查看模板详情
浏览 DeepSeek 聊天模型集成模板,或 搜索所有模板
相关资源#
由于 DeepSeek 的 API 与 OpenAI 兼容,你可以参考 LangChain 的 OpenAI 文档 获取更多服务信息。 也可查阅 n8n 的 高级 AI 文档。
查阅文档
本页面是否对你有帮助? !Thumbs up有帮助 !Thumbs down无帮助 感谢你的反馈! 提交
上一篇 Cohere 聊天模型 下一篇 Google Gemini 聊天模型 由 Material for MkDocs Insiders 提供支持