集成节点/Built in_nodes/Cluster_nodes/Sub nodes
xAI Grok 聊天模型节点#
使用 xAI Grok 聊天模型节点(xAI Grok Chat Model node)来访问 xAI Grok 的大型语言模型,用于对话式 AI 和文本生成任务。 在本页面中,您将找到该节点的参数设置以及更多相关资源的链接。
凭据
您可以在此处查看此节点的认证信息。
子节点中的参数解析
当使用表达式处理多个数据项时,子节点(sub-nodes)的行为与其他节点有所不同。
大多数节点(包括根节点)可以接收任意数量的数据项作为输入,逐个处理这些数据项并输出结果。您可以使用表达式引用输入项,节点会依次为每个项目解析表达式。例如,如果有五个 name 值作为输入,表达式 {{ $json.name }} 将依次解析为每一个名字。
而在子节点中,表达式始终只解析为第一个项目。例如,即使有五个 name 值输入,表达式 {{ $json.name }} 也总是解析为第一个名字。
节点参数#
- 模型(Model) : 选择用于生成补全内容的模型。n8n 会从 xAI Grok API 动态加载可用模型。更多信息请参阅 xAI Grok 模型文档。
节点选项#
- 频率惩罚(Frequency Penalty) : 使用此选项控制模型重复自身内容的可能性。数值越高,模型自我重复的概率越低。
- 最大 Token 数量(Maximum Number of Tokens) : 输入使用的最大 token 数量,决定生成内容的长度。大多数模型的上下文长度为 2048 个 token,而较新的模型最多支持 32,768 个 token。
- 响应格式(Response Format) : 选择 Text(文本) 或 JSON。选择 JSON 可确保模型返回有效的 JSON 格式。
- 存在惩罚(Presence Penalty) : 使用此选项控制模型引入新话题的可能性。数值越高,模型更倾向于讨论新主题。
- 采样温度(Sampling Temperature) : 控制采样过程的随机性。较高的温度会产生更多样化的输出,但也会增加产生幻觉(hallucinations)的风险。
- 超时时间(Timeout) : 输入请求的最大等待时间(毫秒)。
- 最大重试次数(Max Retries) : 设置请求失败后最多重试的次数。
- Top P : 设置生成结果时考虑的概率范围。使用较低的值可忽略概率较小的选项。
模板与示例#
🤖 面向汽车服务的 AI 内容生成 🚘 自动化您的社交媒体 📲! 作者:N8ner 查看模板详情 AI 聊天机器人呼叫中心:演示呼叫中心(生产就绪,第二部分) 作者:ChatPayLabs 查看模板详情 Homey Pro - 结合大语言模型(LLM)的智能家居集成 作者:Ole Andre Torjussen 查看模板详情 浏览 xAI Grok 聊天模型集成模板,或 搜索所有模板
相关资源#
更多服务信息,请参考 xAI Grok 的 API 文档。 查看 n8n 的 高级 AI(Advanced AI) 文档。