N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes

Vercel AI Gateway 聊天模型节点#

使用 Vercel AI Gateway 聊天模型节点,将 AI Gateway 的聊天模型集成到对话代理中。 在本页面,您可找到 Vercel AI Gateway 聊天模型节点的参数设置以及相关资源链接。

凭据

有关此节点的身份验证信息,请参见此处。

子节点中的参数解析#

当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。 大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐项处理并输出结果。您可以使用表达式引用输入项,节点会依次为每一项解析该表达式。例如,若输入包含五个 name 值,则表达式 {{ $json.name }} 会依次解析为每一个名称。

而在子节点中,表达式始终解析为第一个输入项。例如,即使输入了五个 name 值,表达式 {{ $json.name }}总是解析为第一个名称。

节点参数#

模型 (Model)#

选择用于生成回复的模型。 n8n 会从 AI Gateway 动态加载模型,因此您只会看到您的账户可用的模型。

节点选项#

使用这些选项进一步调整节点行为。

频率惩罚 (Frequency Penalty)#

控制模型重复自身内容的概率。值越高,模型自我重复的可能性越低。

最大 Token 数 (Maximum Number of Tokens)#

设置使用的最大 token 数量,从而限制生成内容的长度。

响应格式 (Response Format)#

选择 文本 (Text)JSON。选择 JSON 可确保模型返回有效的 JSON 格式数据。

存在惩罚 (Presence Penalty)#

控制模型引入新话题的可能性。值越高,模型更倾向于讨论新主题。

采样温度 (Sampling Temperature)#

控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加“幻觉”(hallucinations)的风险。

超时时间 (Timeout)#

设置请求的最大等待时间(单位:毫秒)。

最大重试次数 (Max Retries)#

设置请求失败后最多重试的次数。

Top P#

用于设定生成时考虑的概率阈值。使用较低的值可忽略概率较小的选项。

模板与示例#

浏览 Vercel AI Gateway 聊天模型集成模板,或 搜索所有模板

相关资源#

由于 Vercel AI Gateway 与 OpenAI API 兼容,您可以参考 LangChain 的 OpenAI 文档 获取更多服务信息。 查看 n8n 的 高级 AI(Advanced AI) 文档。

聊天式查阅文档

本页面是否对您有帮助? !Thumbs up有帮助 !Thumbs down无帮助 感谢您的反馈! 提交

上一篇 OpenRouter 聊天模型 下一篇 xAI Grok 聊天模型

由 Material for MkDocs Insiders 提供支持