让你的 servers 从 LLMs 请求补全
sampling/createMessage
请求messages
数组包含要发送给 LLM 的对话历史。每条消息都有:
role
:“user” 或 “assistant”content
:消息内容,可以是:
text
字段的文本内容data
(base64) 和 mimeType
字段的图像内容modelPreferences
对象允许 servers 指定他们的模型选择偏好:
hints
:模型名称建议的数组,clients 可以使用它来选择合适的模型:
name
:可以匹配完整或部分模型名称的字符串(例如 “claude-3”, “sonnet”)costPriority
:最小化成本的重要性speedPriority
:低延迟响应的重要性intelligencePriority
:高级模型功能的重要性systemPrompt
字段允许 servers 请求特定的 system prompt。Client 可能会修改或忽略它。
includeContext
参数指定要包含的 MCP 上下文:
"none"
:不包含任何额外的上下文"thisServer"
:包含来自请求 server 的上下文"allServers"
:包含来自所有已连接 MCP servers 的上下文temperature
:控制随机性(0.0 到 1.0)maxTokens
:要生成的最大 tokens 数stopSequences
:停止生成的序列数组metadata
:其他特定于提供商的参数includeContext
包含相关上下文