N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes

Azure OpenAI 聊天模型节点#

使用 Azure OpenAI 聊天模型节点,可将 OpenAI 的聊天模型与对话式 智能代理(agents) 结合使用。 在本页面中,您将找到 Azure OpenAI 聊天模型节点的参数设置以及相关资源链接。

凭据

有关此节点的身份验证信息,请参阅此处。

子节点中的参数解析

当使用表达式处理多个数据项时,子节点的行为与其他节点有所不同。 大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些数据项并输出结果。您可以使用表达式引用输入项,节点会依次为每个输入项解析该表达式。例如,若有五个 name 值作为输入,则表达式 {{ $json.name }} 会依次解析为每一个名称。

而在子节点中,表达式始终解析为第一个数据项。例如,即使有五个 name 值作为输入,表达式 {{ $json.name }} 也始终解析为第一个名称。

节点参数#

  • 模型(Model):选择用于生成回复的模型。

节点选项#

  • 频率惩罚(Frequency Penalty):用于控制模型重复自身内容的可能性。值越高,模型自我重复的概率越低。
  • 最大 Token 数量(Maximum Number of Tokens):设置所使用的最大 token 数量,从而限制生成内容的长度。
  • 响应格式(Response Format):选择 文本(Text)JSON。选择 JSON 可确保模型返回有效的 JSON 格式。
  • 主题出现惩罚(Presence Penalty):用于控制模型引入新话题的可能性。值越高,模型越倾向于讨论新话题。
  • 采样温度(Sampling Temperature):用于控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。
  • 超时时间(Timeout):设置请求的最大持续时间(单位:毫秒)。
  • 最大重试次数(Max Retries):设置请求失败后最多重试的次数。
  • Top P:用于设定生成时应考虑的概率范围。使用较低的值可忽略概率较小的选项。

代理限制#

该节点不支持 NO_PROXY 环境变量。

模板与示例#

🤖 面向汽车服务的 AI 内容生成 🚘 自动化您的社交媒体 📲! 作者:N8ner 查看模板详情

在 LINE 上构建您自己的心理咨询聊天机器人,支持心理健康对话 作者:lin@davoy.tech 查看模板详情

CallForge - 05 - 使用 Azure AI 和 CRM 同步进行 Gong.io 通话分析 作者:Angel Menendez 查看模板详情

浏览 Azure OpenAI 聊天模型集成模板,或 搜索所有模板

相关资源#

更多服务信息,请参考 LangChain 的 Azure OpenAI 文档。 查看 n8n 的 高级 AI(Advanced AI) 文档。