N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes

DeepSeek 聊天模型节点#

使用 DeepSeek 聊天模型节点,将 DeepSeek 的聊天模型与对话式 智能代理(agents) 集成。 本页面提供 DeepSeek 聊天模型节点的参数说明以及相关资源链接。

凭据

有关此节点的身份验证信息,请参阅此处。

子节点中的参数解析#

在处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。

大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些项目,并输出结果。你可以使用表达式引用输入项,节点会依次为每个项目解析该表达式。例如,给定五个 name 值作为输入,表达式 {{ $json.name }} 会依次解析为每一个名称。

而在子节点中,表达式始终解析为第一个项目。例如,同样输入五个 name 值,表达式 {{ $json.name }} 始终指向第一个名称。

节点参数#

模型 (Model)#

选择用于生成回复的模型。 n8n 会从 DeepSeek 动态加载模型,你只能看到你的账户可用的模型。

节点选项#

使用以下选项进一步调整节点行为。

基础 URL (Base URL)#

在此输入一个 URL,以覆盖 API 的默认地址。

频率惩罚 (Frequency Penalty)#

控制模型重复自身内容的可能性。值越高,模型自我重复的概率越低。

最大 Token 数 (Maximum Number of Tokens)#

设置生成内容所使用的最大 token 数量,从而限制回复长度。

响应格式 (Response Format)#

选择 文本(Text)JSON。选择 JSON 可确保模型返回有效的 JSON 格式内容。

存在惩罚 (Presence Penalty)#

控制模型引入新话题的可能性。值越高,模型更倾向于讨论新主题。

采样温度 (Sampling Temperature)#

控制生成过程的随机性。较高的温度会产生更多样化的输出,但也会增加“幻觉”(hallucinations)的风险。

超时时间 (Timeout)#

设置请求的最大等待时间(单位:毫秒)。

最大重试次数 (Max Retries)#

设置请求失败后最多重试的次数。

Top P#

用于设定生成时考虑的概率阈值。较低的值会忽略概率较小的选项,使输出更加集中和确定。

模板与示例#

🐋🤖 DeepSeek AI Agent + Telegram + 长期记忆 🧠 作者:Joseph LePage 查看模板详情

🤖 面向汽车服务的 AI 内容生成 🚘 自动化你的社交媒体📲! 作者:N8ner 查看模板详情

使用 Notion MCP、DeepSeek AI 和 WordPress 自动化博客内容创作 作者:Dr. Firas 查看模板详情

浏览 DeepSeek 聊天模型集成模板,或 搜索所有模板

相关资源#

由于 DeepSeek 的 API 与 OpenAI 兼容,你可以参考 LangChain 的 OpenAI 文档 获取更多服务信息。 也可查阅 n8n 的 高级 AI 文档。

查阅文档

本页面是否对你有帮助? !Thumbs up有帮助 !Thumbs down无帮助 感谢你的反馈! 提交

上一篇 Cohere 聊天模型 下一篇 Google Gemini 聊天模型 由 Material for MkDocs Insiders 提供支持