Vercel AI Gateway 聊天模型节点#
使用 Vercel AI Gateway 聊天模型节点,将 AI Gateway 的聊天模型集成到对话代理中。 在本页面,您可找到 Vercel AI Gateway 聊天模型节点的参数设置以及相关资源链接。
凭据
有关此节点的身份验证信息,请参见此处。
子节点中的参数解析#
当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。
大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐项处理并输出结果。您可以使用表达式引用输入项,节点会依次为每一项解析该表达式。例如,若输入包含五个 name 值,则表达式 {{ $json.name }} 会依次解析为每一个名称。
而在子节点中,表达式始终解析为第一个输入项。例如,即使输入了五个 name 值,表达式 {{ $json.name }} 也总是解析为第一个名称。
节点参数#
模型 (Model)#
选择用于生成回复的模型。 n8n 会从 AI Gateway 动态加载模型,因此您只会看到您的账户可用的模型。
节点选项#
使用这些选项进一步调整节点行为。
频率惩罚 (Frequency Penalty)#
控制模型重复自身内容的概率。值越高,模型自我重复的可能性越低。
最大 Token 数 (Maximum Number of Tokens)#
设置使用的最大 token 数量,从而限制生成内容的长度。
响应格式 (Response Format)#
选择 文本 (Text) 或 JSON。选择 JSON 可确保模型返回有效的 JSON 格式数据。
存在惩罚 (Presence Penalty)#
控制模型引入新话题的可能性。值越高,模型更倾向于讨论新主题。
采样温度 (Sampling Temperature)#
控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加“幻觉”(hallucinations)的风险。
超时时间 (Timeout)#
设置请求的最大等待时间(单位:毫秒)。
最大重试次数 (Max Retries)#
设置请求失败后最多重试的次数。
Top P#
用于设定生成时考虑的概率阈值。使用较低的值可忽略概率较小的选项。
模板与示例#
浏览 Vercel AI Gateway 聊天模型集成模板,或 搜索所有模板
相关资源#
由于 Vercel AI Gateway 与 OpenAI API 兼容,您可以参考 LangChain 的 OpenAI 文档 获取更多服务信息。 查看 n8n 的 高级 AI(Advanced AI) 文档。
聊天式查阅文档
本页面是否对您有帮助? !Thumbs up有帮助 !Thumbs down无帮助 感谢您的反馈! 提交
上一篇 OpenRouter 聊天模型 下一篇 xAI Grok 聊天模型
由 Material for MkDocs Insiders 提供支持