N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes/Ollama_Model

Ollama 模型节点#

Ollama 模型节点允许你使用本地的 Llama 2 模型。 在本页面中,你可以找到 Ollama 模型节点的参数设置以及相关资源链接。

该节点不支持工具(tools),因此无法与 AI Agent 节点配合使用。建议将其连接到 基础 LLM 链(Basic LLM Chain) 节点。

凭据(Credentials)

你可以点击此处查看该节点的认证信息。

子节点中的参数解析(Parameter resolution in sub-nodes)

当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。

大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些项并输出结果。你可以通过表达式引用输入项,节点会依次为每一项解析该表达式。例如,若有五个 name 值作为输入,表达式 {{ $json.name }} 将依次解析为每一个名称。

而在子节点中,表达式始终只解析为第一个输入项。例如,在同样有五个 name 值输入的情况下,表达式 {{ $json.name }} 始终只会解析为第一个名称。

节点参数#

  • 模型(Model):选择用于生成补全内容的模型。可选项包括:
    • Llama2
    • Llama2 13B
    • Llama2 70B
    • Llama2 Uncensored

有关可用模型的更多信息,请参考 Ollama 的 模型库文档(Models Library documentation)。

节点选项#

  • 采样温度(Sampling Temperature):用于控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。
  • Top K:输入模型在生成下一个 token 时考虑的 token 选项数量。
  • Top P:用于设置生成结果应覆盖的概率阈值。使用较低的值将忽略概率较小的选项。

模板与示例#

使用 n8n 和 Ollama 与本地大语言模型(LLM)聊天 作者:Mihai Farcas 查看模板详情

🔐🦙🤖 私有且本地部署的 Ollama 自托管 AI 助手 作者:Joseph LePage 查看模板详情

使用 AI 自动分类 Outlook 邮件 作者:Wayne Simpson 查看模板详情

浏览 Ollama 模型集成模板,或 搜索所有模板

相关资源#

更多服务信息,请参考 LangChain 的 Ollama 文档。 也可查阅 n8n 的 高级 AI(Advanced AI) 文档。

常见问题#

关于常见问题及建议解决方案,请参阅 常见问题(Common issues)。

自托管 AI 入门套件(Self-hosted AI Starter Kit)#

刚开始接触 AI 并使用自托管的 n8n?可以尝试 n8n 提供的 自托管 AI 入门套件(self-hosted AI Starter Kit),快速搭建一个基于 Ollama、Qdrant 和 PostgreSQL 的概念验证(proof-of-concept)或演示环境。