N8N中文教程
集成节点/Built in_nodes/Cluster_nodes/Sub nodes

xAI Grok 聊天模型节点#

使用 xAI Grok 聊天模型节点(xAI Grok Chat Model node)来访问 xAI Grok 的大型语言模型,用于对话式 AI 和文本生成任务。 在本页面中,您将找到该节点的参数设置以及更多相关资源的链接。

凭据

您可以在此处查看此节点的认证信息。

子节点中的参数解析

当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。 大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些数据项并输出结果。您可以使用表达式引用输入项,节点会依次为每个项目解析表达式。例如,如果有五个 name 值作为输入,表达式 {{ $json.name }} 将依次解析为每一个名字。

而在子节点中,表达式始终只解析为第一个项目。例如,即使有五个 name 值输入,表达式 {{ $json.name }} 也总是解析为第一个名字。

节点参数#

  • 模型(Model) : 选择用于生成补全内容的模型。n8n 会从 xAI Grok API 动态加载可用模型。更多信息请参阅 xAI Grok 模型文档。

节点选项#

  • 频率惩罚(Frequency Penalty) : 使用此选项控制模型重复自身内容的可能性。数值越高,模型自我重复的概率越低。
  • 最大 Token 数量(Maximum Number of Tokens) : 输入使用的最大 token 数量,决定生成内容的长度。大多数模型的上下文长度为 2048 个 token,而较新的模型最多支持 32,768 个 token。
  • 响应格式(Response Format) : 选择 Text(文本)JSON。选择 JSON 可确保模型返回有效的 JSON 格式。
  • 存在惩罚(Presence Penalty) : 使用此选项控制模型引入新话题的可能性。数值越高,模型更倾向于讨论新主题。
  • 采样温度(Sampling Temperature) : 控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。
  • 超时时间(Timeout) : 输入请求的最大等待时间(毫秒)。
  • 最大重试次数(Max Retries) : 设置请求失败后最多重试的次数。
  • Top P : 设置生成结果时考虑的概率范围。使用较低的值可忽略概率较小的选项。

模板与示例#

🤖 面向汽车服务的 AI 内容生成 🚘 自动化您的社交媒体 📲! 作者:N8ner 查看模板详情 AI 聊天机器人呼叫中心:演示呼叫中心(生产就绪,第二部分) 作者:ChatPayLabs 查看模板详情 Homey Pro - 结合大语言模型(LLM)的智能家居集成 作者:Ole Andre Torjussen 查看模板详情 浏览 xAI Grok 聊天模型集成模板,或 搜索所有模板

相关资源#

更多服务信息,请参考 xAI Grok 的 API 文档。 查看 n8n 的 高级 AI(Advanced AI) 文档。