集成节点/Built in_nodes/Cluster_nodes/Sub nodes
Hugging Face 推理模型节点#
使用 Hugging Face 推理模型节点(Hugging Face Inference Model node)来调用 Hugging Face 的模型。
在本页面中,您将找到该节点的参数说明以及相关资源链接。
此节点不支持工具(tools),因此无法与 AI Agent 节点配合使用。请将其连接到 基础 LLM 链(Basic LLM Chain) 节点。
凭据(Credentials)
您可以在此处找到该节点的身份验证信息。
子节点中的参数解析(Parameter resolution in sub-nodes)
当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。
大多数节点(包括根节点 root nodes)可以接收任意数量的数据项作为输入,逐个处理并输出结果。您可以使用表达式引用输入项,节点会依次为每个输入项解析表达式。例如,若有五个 name 值作为输入,表达式 {{ $json.name }} 会依次解析为每一个名字。
而在子节点中,表达式始终只解析为第一个输入项。例如,即使有五个 name 值输入,表达式 {{ $json.name }} 也始终解析为第一个名字。
节点参数#
- 模型(Model):选择用于生成补全内容的模型。
节点选项#
- 自定义推理端点(Custom Inference Endpoint):输入自定义的推理端点 URL。
- 频率惩罚(Frequency Penalty):用于控制模型重复自身内容的可能性。值越高,模型重复内容的可能性越低。
- 最大 Token 数量(Maximum Number of Tokens):设置所使用的最大 token 数量,从而控制生成结果的长度。
- 存在惩罚(Presence Penalty):用于控制模型引入新话题的可能性。值越高,模型更倾向于讨论新话题。
- 采样温度(Sampling Temperature):用于控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。
- Top K:设置模型在生成下一个 token 时考虑的候选 token 数量。
- Top P:用于设置生成结果应覆盖的概率阈值。使用较低的值可忽略概率较低的选项。
模板与示例#
浏览 Hugging Face Inference Model 集成模板,或搜索所有模板
相关资源#
更多服务信息,请参考 LangChain 的 Hugging Face Inference Model 文档。 查看 n8n 的 高级 AI(Advanced AI) 文档。