N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes

AWS Bedrock 聊天模型节点#

AWS Bedrock 聊天模型节点允许你使用基于 AWS Bedrock 平台的 LLM(大语言模型)。

在本页面,你可以找到 AWS Bedrock 聊天模型节点的参数信息,以及更多资源的链接。

凭据

有关此节点的身份验证信息,请参见此处。

子节点中的参数解析

当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。

大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐条处理并输出结果。你可以使用表达式引用输入项,节点会依次为每个输入项解析该表达式。例如,如果有五个 name 值作为输入,表达式 {{ $json.name }} 会依次解析为每一个名字。

而在子节点中,表达式始终只解析为第一个输入项。例如,同样有五个 name 值作为输入,表达式 {{ $json.name }} 始终只会解析为第一个名字。

节点参数#

  • 模型(Model):选择用于生成回复的模型。

有关可用模型的更多信息,请参阅 Amazon Bedrock 模型文档。

节点选项#

  • 最大 Token 数量(Maximum Number of Tokens):输入所使用的最大 token 数量,用于控制生成内容的长度。
  • 采样温度(Sampling Temperature):用于控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。

代理限制#

该节点不支持 NO_PROXY 环境变量。

模板与示例#

浏览 AWS Bedrock 聊天模型集成模板,或 搜索所有模板

相关资源#

更多服务信息,请参考 LangChain 的 AWS Bedrock 聊天模型文档。 查看 n8n 的 高级 AI(Advanced AI) 文档。