LLM 提供商
要在 Zed 中使用 AI,您需要至少设置一个大语言模型提供商。一旦配置完成,这些提供商将在 Agent Panel、Inline Assistant 和 Text Threads 中可用。
您可以通过订阅 [Zed 的任一计划](./plans-and usage.md) 来实现,或者使用您已支持的提供商的 API 密钥。有关通用 AI 设置,请参阅 Configuration。
使用您自己的密钥
如果您已经拥有 Anthropic 或 OpenAI 等提供商的 API 密钥,您可以将其添加到 Zed。无需 Zed 订阅。
要将现有的 API 密钥添加到指定的提供商,请转到 Agent Panel 设置 (agent: open settings),找到所需的提供商,将密钥粘贴到输入框中,然后按回车键。
注意:API 密钥不会以纯文本形式存储在您的设置文件中,而是存储在您操作系统的安全凭证存储中。
支持的提供商
Zed 支持使用您自己的 API 密钥的以下提供商:
- Amazon Bedrock
- Anthropic
- DeepSeek
- GitHub Copilot Chat
- Google AI
- LM Studio
- Mistral
- Ollama
- OpenAI
- OpenAI API Compatible
- OpenRouter
- Vercel AI Gateway
- Vercel v0
- xAI
Amazon Bedrock
支持对支持流式工具调用的模型使用工具。 更多细节可以在 Amazon Bedrock 的工具使用文档 中找到。
要使用 Amazon Bedrock 的模型,需要 AWS 身份验证。 确保您的凭证已设置以下权限:
bedrock:InvokeModelWithResponseStreambedrock:InvokeModel
您的 IAM 策略应如下所示:
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"bedrock:InvokeModel",
"bedrock:InvokeModelWithResponseStream"
],
"Resource": "*"
}
]
}完成后,从以下三种身份验证方法中选择一种:
通过命名配置文件进行身份验证(推荐)
- 确保您已安装 AWS CLI 并使用命名配置文件进行了配置
- 打开您的设置文件 (
zed: open settings file) 并在language_models下包含bedrock键,并使用以下设置:json{ "language_models": { "bedrock": { "authentication_method": "named_profile", "region": "your-aws-region", "profile": "your-profile-name" } } }
通过静态凭据进行身份验证
虽然可以通过在 Agent Panel 设置 UI 中直接输入您的 AWS 访问密钥和密钥来进行配置,但我们建议使用命名配置文件以获得更好的安全实践。 为此:
- 在 IAM 控制台 中创建一个 IAM 用户。
- 为该用户创建安全凭证,保存并妥善保管它们。
- 使用 (
agent: open settings) 打开 Agent 配置并转到 Amazon Bedrock 部分 - 将步骤 2 中的凭证分别复制到 Access Key ID、Secret Access Key 和 Region 字段中。
通过 Bedrock API 密钥进��身份验证
Amazon Bedrock 还支持 API 密钥,它无需 IAM 用户或命名配置文件即可直接进行身份验证。
- 在 Amazon Bedrock 控制台 中创建一个 API 密钥
- 使用 (
agent: open settings) 打开 Agent 配置并转到 Amazon Bedrock 部分 - 在 API Key 字段中输入您的 Bedrock API 密钥,然后选择您的 Region
{
"language_models": {
"bedrock": {
"authentication_method": "api_key",
"region": "your-aws-region"
}
}
}API 密钥本身安全地存储在您的操作系统钥匙串中,而不是在您的设置文件中。
跨区域推理
Zed 对 Amazon Bedrock 的实现使用 跨区域推理 来提高可用性和吞吐量。 通过跨区域推理,您可以将流量分布在多个 AWS 区域,从而实现更高的吞吐量。
区域性与全局性推理配置文件
Bedrock 支持两种类型的跨区域推理配置文件:
- 区域性配置文件(默认):在特定地理区域内(美国、欧盟、亚太地区)路由请求。例如,
us-east-1使用us.*配置文件,该配置文件在us-east-1、us-east-2和us-west-2之间路由。 - 全局性配置文件:跨所有商业 AWS 区域路由请求,以实现最高的可用性和性能。
默认情况下,Zed 使用区域性配置文件,这会将您的数据保留在相同的地理区域内。您可以通过在 Bedrock 配置中添加 "allow_global": true 来选择使用全局配置文件:
{
"language_models": {
"bedrock": {
"authentication_method": "named_profile",
"region": "your-aws-region",
"profile": "your-profile-name",
"allow_global": true
}
}
}注意:只有部分较新的模型支持全局推理配置文件。有关支持全局推理的当前模型列表,请参阅 AWS Bedrock 支持的模型文档。如果您在区域中遇到模型的可用性问题,启用 allow_global 可能会解决这些问题。
尽管数据仅存储在源区域中,但在跨区域推理期间,您的输入提示和输出结果可能会移出您的源区域。 所有数据都将通过亚马逊的安全网络进行加密传输。
我们将尽最大努力为每个模型支持跨区域推理,请参考 跨区域推理方法代码。
有关最新的支持区域和模型,请参阅 跨区域推理的支持模型和区域。
扩展上下文窗口
Bedrock 上的 Anthropic 模型通过 anthropic_beta API 参数支持 1M token 的扩展上下文窗口。要启用此功能,请在您的 Bedrock 配置中设置 "allow_extended_context": true:
{
"language_models": {
"bedrock": {
"authentication_method": "named_profile",
"region": "your-aws-region",
"profile": "your-profile-name",
"allow_extended_context": true
}
}
}Zed 为支持的模型(Claude Sonnet 4.5 和 Claude Opus 4.6)启用扩展上下文。扩展上下文的使用可能会增加 API 成本—有关详细信息,请参阅 AWS Bedrock 定价。
图像支持
支持视觉的 Bedrock 模型(Claude 3 及更高版本、Amazon Nova Pro 和 Lite、Meta Llama 3.2 Vision 模型、Mistral Pixtral)可以在对话和工具结果中接收图像。
Anthropic
您可以通过在 Agent Panel 中的模型下拉列表中选择 Anthropic 模型来使用它们。
- 注册 Anthropic 并 创建一个 API 密钥
- 确保您的 Anthropic 账户有信用额度
- 打开设置视图 (
agent: open settings) 并转到 Anthropic 部分 - 输入您的 Anthropic API 密钥
即使您为 Claude Pro 付费,您仍然需要 为额外的信用额度付费 才能通过 API 使用它。
如果定义了 ANTHROPIC_API_KEY 环境变量,Zed 也会使用它。
自定义模型
您可以通过将以下内容添加到您的 Zed 设置文件中来向 Anthropic 提供商添加自定义模型(如何编辑):
{
"language_models": {
"anthropic": {
"available_models": [
{
"name": "claude-3-5-sonnet-20240620",
"display_name": "Sonnet 2024-June",
"max_tokens": 128000,
"max_output_tokens": 2560,
"cache_configuration": {
"max_cache_anchors": 10,
"min_total_token": 10000,
"should_speculate": false
},
"tool_override": "some-model-that-supports-toolcalling"
}
]
}
}
}自定义模型将列在 Agent Panel 中的模型下拉列表中。
您可以通过将模型配置中的模式更改为 thinking 来配置模型使用 扩展思考(如果支持),例如:
{
"name": "claude-sonnet-4-latest",
"display_name": "claude-sonnet-4-thinking",
"max_tokens": 200000,
"mode": {
"type": "thinking",
"budget_tokens": 4096
}
}DeepSeek
- 访问 DeepSeek 平台并 创建一个 API 密钥
- 打开设置视图 (
agent: open settings) 并转到 DeepSeek 部分 - 输入您的 DeepSeek API 密钥
DeepSeek API 密钥将保存在您的钥匙串中。
如果定义了 DEEPSEEK_API_KEY 环境变量,Zed 也会使用它。
自定义模型
Zed agent 已预配置为使用常见模型(DeepSeek Chat, DeepSeek Reasoner)的最新版本。 如果您希望使用替代模型或自定义 API 端点,您可以通过将以下内容添加到您的 Zed 设置文件中来实现(如何编辑):
{
"language_models": {
"deepseek": {
"api_url": "https://api.deepseek.com",
"available_models": [
{
"name": "deepseek-chat",
"display_name": "DeepSeek Chat",
"max_tokens": 64000
},
{
"name": "deepseek-reasoner",
"display_name": "DeepSeek Reasoner",
"max_tokens": 64000,
"max_output_tokens": 4096
}
]
}
}
}自定义模型将列在 Agent Panel 中的模型下拉列表中。 如果需要,您也可以修改 api_url 以使用自定义端点。
GitHub Copilot Chat
您可以在 Agent Panel 中的模型下拉列表中选择它来使用 GitHub Copilot Chat。
- 打开设置视图 (
agent: open settings) 并转到 GitHub Copilot Chat 部分 - 点击
Sign in to use GitHub Copilot,并按照模态框中显示的步骤操作。
或者,您可以通过 GH_COPILOT_TOKEN 环境变量提供 OAuth 令牌。
注意:如果您在下拉列表中看不到特定模型,您可能需要在您的 GitHub Copilot 设置 中启用它们。
要在 Zed 中使用 Copilot Enterprise(用于 agent 和补全),您必须按照 配置 GitHub Copilot Enterprise 中的说明配置您的企业端点。
Google AI
您可以在 Agent Panel 中的模型下拉列表中选择它来使用 Gemini 模型。
- 访问 Google AI Studio 网站并 创建一个 API 密钥。
- 打开设置视图 (
agent: open settings) 并转到 Google AI 部分 - 输入您的 Google AI API 密钥并按回车。
Google AI API 密钥将保存在您的钥匙串中。
如果定义了 GEMINI_API_KEY 环境变量,Zed 也会使用它。有关更多信息,请参阅 Gemini 文档中的 使用 Gemini API 密钥。
自定义模型
默认情况下,Zed 将使用模型的 stable 版本,但您可以使用特定版本的模型,包括 实验性模型。您可以通过在模型中添加 mode 配置来配置模型使用 思考模式(如果支持)。这对于控制推理 token 的使用和响应速度很有用。如果未指定,Gemini 将自动选择思考预算。
以下是您可以添加到 Zed 设置文件中的自定义 Google AI 模型的示例(如何编辑):
{
"language_models": {
"google": {
"available_models": [
{
"name": "gemini-3.1-pro-preview",
"display_name": "Gemini 3.1 Pro",
"max_tokens": 1000000,
"mode": {
"type": "thinking",
"budget_tokens": 24000
}
},
{
"name": "gemini-3-flash-preview",
"display_name": "Gemini 3 Flash (Thinking)",
"max_tokens": 1000000,
"mode": {
"type": "thinking",
"budget_tokens": 24000
}
}
]
}
}
}自定义模型将列在 Agent Panel 中的模型下拉列表中。
LM Studio
下载并安装 LM Studio 的最新版本
在应用中按下
cmd/ctrl-shift-m并下载至少一个模型(例如,qwen2.5-coder-7b)。或者,您可以通过 LM Studio CLI 获取模型:shlms get qwen2.5-coder-7b通过执行以下命令确保 LM Studio API 服务器正在运行:
shlms server start
提示:将 LM Studio 设置为登录项 以自动运行 LM Studio 服务器。
Mistral
- 访问 Mistral 平台并 创建一个 API 密钥
- 打开配置视图 (
agent: open settings) 并导航到 Mistral 部分 - 输入您的 Mistral API 密钥
Mistral API 密钥将保存在您的钥匙串中。
如果定义了 MISTRAL_API_KEY 环境变量,Zed 也会使用它。
自定义模型
Zed agent 已预配置了几个 Mistral 模型(codestral-latest, mistral-large-latest, mistral-medium-latest, mistral-small-latest, open-mistral-nemo, and open-codestral-mamba)。 所有默认模型都支持工具使用。 如果您希望使用替代模型或自定义其参数,您可以通过将以下内容添加到您的 Zed 设置文件中来实现(如何编辑):
{
"language_models": {
"mistral": {
"api_url": "https://api.mistral.ai/v1",
"available_models": [
{
"name": "mistral-tiny-latest",
"display_name": "Mistral Tiny",
"max_tokens": 32000,
"max_output_tokens": 4096,
"max_completion_tokens": 1024,
"supports_tools": true,
"supports_images": false
}
]
}
}
}自定义模型将列在 Agent Panel 中的模型下拉列表中。
Ollama
从 ollama.com/download(Linux 或 macOS)下载并安装 Ollama,并确保它通过 ollama --version 运行。
下载其中一个 可用模型,例如,对于
mistral:shollama pull mistral确保 Ollama 服务器正在运行。您可以通过运行 Ollama.app (macOS) 或启动以下命令来启动它:
shollama serve在 Agent Panel 中,使用模型下拉列表选择其中一个 Ollama 模型。
Ollama 自动发现
Zed 将自动发现 Ollama 已拉取的模型。您可以通过在 Ollama 设置中设置 auto_discover 字段来关闭此功能。如果这样做,您应该手动指定哪些模型可用。
{
"language_models": {
"ollama": {
"api_url": "http://localhost:11434",
"auto_discover": false,
"available_models": [
{
"name": "qwen2.5-coder",
"display_name": "qwen 2.5 coder",
"max_tokens": 32768,
"supports_tools": true,
"supports_thinking": true,
"supports_images": true
}
]
}
}
}Ollama 上下文长度
Zed 向 Ollama 发出的 API 请求将上下文长度作为 num_ctx 参数包含。默认情况下,Zed 对所有 Ollama 模型使用 4096 tokens 的上下文长度。
注意:Agent Panel 中显示的 Token 数只是估计值,并且会与模型的原生分词器不同。
您可以使用 context_window 设置为所有 Ollama 模型设置上下文长度。这也可以在 Ollama 提供商设置 UI 中配置:
{
"language_models": {
"ollama": {
"context_window": 8192
}
}
}或者,您可以使用 available_models 中的 max_tokens 字段为每个模型配置上下文长度:
{
"language_models": {
"ollama": {
"api_url": "http://localhost:11434",
"available_models": [
{
"name": "qwen2.5-coder",
"display_name": "qwen 2.5 coder 32K",
"max_tokens": 32768,
"supports_tools": true,
"supports_thinking": true,
"supports_images": true
}
]
}
}
}注意:如果设置了
context_window,它将覆盖任何单模型的max_tokens值。
如果您指定的上下文长度对于您的硬件来说过大,Ollama 将记录一个错误。 您可以通过运行以下命令来查看这些日志:tail -f ~/.ollama/logs/ollama.log (macOS) 或 journalctl -u ollama -f (Linux)。 根据您机器上可用的内存,您可能需要将上下文长度调整为较小的值。
您还可以为每个可用模型选择性地指定 keep_alive 的值。 这可以是一个整数(秒),或者是字符串持续时间,如 "5m", "10m", "1h", "1d" 等。 例如,"keep_alive": "120s" 将允许远程服务器在 120 秒后卸载模型(释放 GPU VRAM)。
supports_tools 选项控制模型是否会使用额外的工具。 如果模型在 Ollama 目录中被标记为 tools,则应提供此选项,并且可以使用内置的 Ask 和 Write 配置文件。 如果模型在 Ollama 目录中没有被标记为 tools,此选项仍然可以设置为 true;但请注意,只有 Minimal 内置配置文件会有效。
supports_thinking 选项控制模型在产生最终答案之前是否会执行明确的“思考”(推理)过程。 如果模型在 Ollama 目录中被标记为 thinking,请设置此选项,您就可以在 Zed 中使用它。
supports_images 选项启用模型的视觉功能,允许它处理包含在对话上下文中的图像。 如果模型在 Ollama 目录中被标记为 vision,请设置此选项,您就可以在 Zed 中使用它。
Ollama 身份验证
除了在您自己的硬件上运行 Ollama(通常不需要身份验证)之外,Zed 还支持连接到远程 Ollama 实例。API 密钥是身份验证所必需的。
Ollama Turbo 就是这样一个服务。要将 Zed 配置为使用 Ollama Turbo:
- 登录您的 Ollama 账户并订阅 Ollama Turbo
- 访问 ollama.com/settings/keys 并创建一个 API 密钥
- 打开设置视图 (
agent: open settings) 并转到 Ollama 部分 - 粘贴您的 API 密钥并按回车。
- 对于 API URL,输入
https://ollama.com
如果定义了 OLLAMA_API_KEY 环境变量,Zed 也会使用它们。
OpenAI
- 访问 OpenAI 平台并 创建一个 API 密钥
- 确保您的 OpenAI 账户有信用额度
- 打开设置视图 (
agent: open settings) 并转到 OpenAI 部分 - 输入您的 OpenAI API 密钥
OpenAI API 密钥将保存在您的钥匙串中。
如果定义了 OPENAI_API_KEY 环境变量,Zed 也会使用它。
自定义模型
Zed agent 已预配置为使用常见 OpenAI 模型(GPT-5.2, GPT-5 mini, GPT-5.2 Codex 等)的最新版本。 要使用替代模型,也许是预览版本,或者您希望控制请求参数,您可以通过将以下内容添加到您的 Zed 设置文件中来实现(如何编辑):
{
"language_models": {
"openai": {
"available_models": [
{
"name": "gpt-5.2",
"display_name": "gpt-5.2 high",
"reasoning_effort": "high",
"max_tokens": 272000,
"max_completion_tokens": 20000
},
{
"name": "gpt-5-nano",
"display_name": "GPT-5 Nano",
"max_tokens": 400000
},
{
"name": "gpt-5.2-codex",
"display_name": "GPT-5.2 Codex",
"max_tokens": 128000,
"capabilities": {
"chat_completions": false
}
}
]
}
}
}您必须在 max_tokens 参数中提供模型的上下文窗口;这可以在 OpenAI 模型文档 中找到。
对于专注于推理的模型,也请设置 max_completion_tokens 以避免产生高昂的推理 token 费用。
如果模型不支持 /chat/completions 端点(例如 gpt-5.2-codex),请通过将 capabilities.chat_completions 设置为 false 来禁用它。Zed 将使用 Responses 端点。
自定义模型将列在 Agent Panel 中的模型下拉列表中。
OpenAI API Compatible
Zed 支持通过为 OpenAI 提供商指定自定义的 api_url 和 available_models 来使用 OpenAI 兼容的 API。 这对于连接到其他托管服务(如 Together AI, Anyscale 等)或本地模型非常有用。
您可以通过 UI 或编辑您的设置文件来添加自定义的、OpenAI 兼容的模型。
要通过 UI 实现,请转到 Agent Panel 设置 (agent: open settings) 并在 "LLM Providers" 部分标题的右侧查找 "Add Provider" 按钮。 然后,填充模态框中可用的输入字段。
要通过您的设置文件实现(如何编辑),请在 language_models 下添加以下代码片段:
{
"language_models": {
"openai_compatible": {
// 以 Together AI 为例
"Together AI": {
"api_url": "https://api.together.xyz/v1",
"available_models": [
{
"name": "mistralai/Mixtral-8x7B-Instruct-v0.1",
"display_name": "Together Mixtral 8x7B",
"max_tokens": 32768,
"capabilities": {
"tools": true,
"images": false,
"parallel_tool_calls": false,
"prompt_cache_key": false
}
}
]
}
}
}
}默认情况下,OpenAI 兼容的模型继承以下功能:
tools: true (支持工具/函数调用)images: false (不支持图像输入)parallel_tool_calls: false (不支持parallel_tool_calls参数)prompt_cache_key: false (不支持prompt_cache_key参数)chat_completions: true (调用/chat/completions端点)
如果某个提供商的模型仅适用于 Responses API,请为这些条目设置 chat_completions 为 false。Zed 对这些模型使用 Responses 端点。
请注意,LLM API 密钥不会存储在您的设置文件中。 因此,请确保将其设置在您的环境变量中(<PROVIDER_NAME>_API_KEY=<your api key>),以便您的设置可以拾取它。在上面的示例中,它将是 TOGETHER_AI_API_KEY=<your api key>。
OpenRouter
OpenRouter 通过单个 API 提供对多个 AI 模型的访问。它支持对兼容模型的工具使用。
- 访问 OpenRouter 并创建一个账户
- 从您的 OpenRouter 密钥页面 生成一个 API 密钥
- 打开设置视图 (
agent: open settings) 并转到 OpenRouter 部分 - 输入您的 OpenRouter API 密钥
OpenRouter API 密钥将保存在您的钥匙串中。
如果定义了 OPENROUTER_API_KEY 环境变量,Zed 也会使用它。
当使用 OpenRouter 作为您的 assistant 提供商时,您必须在设置中明确选择一个模型。OpenRouter 不再提供默认的模型选择。
在 settings.json 中配置您首选的 OpenRouter 模型:
{
"agent": {
"default_model": {
"provider": "openrouter",
"model": "openrouter/auto"
}
}
}openrouter/auto 模型会自动将您的请求路由到最合适的可用模型。您也可以指定 OpenRouter API 提供的任何模型。
自定义模型
您可以通过将以下内容添加到您的 Zed 设置文件中来向 OpenRouter 提供商添加自定义模型(如何编辑):
{
"language_models": {
"open_router": {
"api_url": "https://openrouter.ai/api/v1",
"available_models": [
{
"name": "google/gemini-2.0-flash-thinking-exp",
"display_name": "Gemini 2.0 Flash (Thinking)",
"max_tokens": 200000,
"max_output_tokens": 8192,
"supports_tools": true,
"supports_images": true,
"mode": {
"type": "thinking",
"budget_tokens": 8000
}
}
]
}
}
}每个模型可用的配置选项包括:
name(必需): OpenRouter 使用的模型标识符display_name(可选): 在 UI 中显示的可读名称max_tokens(必需): 模型的上下文窗口大小max_output_tokens(可选): 模型可以生成的最大 token 数max_completion_tokens(可选): 最大完成 token 数supports_tools(可选): 模型是否支持工具/函数调用supports_images(可选): 模型是否支持图像输入mode(可选): 思考模型的特殊模式配置
您可以在 OpenRouter 模型页面 上查找可用模型及其规格。
自定义模型将列在 Agent Panel 中的模型下拉列表中。
提供商路由
您可以选择性地通过每个模型条目上的 provider 对象来控制 OpenRouter 如何在底层的上游提供商之间路由给定的自定义模型请求。
支持的字段(均为可选):
order: 要首先尝试的提供商 slug 数组,按顺序排列(例如["anthropic", "openai"])allow_fallbacks(默认:true): 如果首选提供商不可用,是否可以使用备用提供商require_parameters(默认:false): 仅使用支持您提供的所有参数的提供商data_collection(默认:allow):"allow"或"disallow"(控制可能存储数据的提供商的使用)only: 此请求允许的提供商 slug 白名单ignore: 要跳过的提供商 slugquantizations: 限制到特定的量化变体(例如["int4","int8"])sort: 候选提供商的排序策略(例如"price"或"throughput")
示例向模型添加路由首选项:
{
"language_models": {
"open_router": {
"api_url": "https://openrouter.ai/api/v1",
"available_models": [
{
"name": "openrouter/auto",
"display_name": "Auto Router (Tools Preferred)",
"max_tokens": 2000000,
"supports_tools": true,
"provider": {
"order": ["anthropic", "openai"],
"allow_fallbacks": true,
"require_parameters": true,
"only": ["anthropic", "openai", "google"],
"ignore": ["cohere"],
"quantizations": ["int8"],
"sort": "price",
"data_collection": "allow"
}
}
]
}
}
}这些路由控制让您可以微调成本、能力和可靠性之间的权衡,而无需更改您在 UI 中选择的模型名称。
Vercel AI Gateway
Vercel AI Gateway 通过单个 OpenAI 兼容的端点提供对许多模型的访问。
- 从您的 Vercel AI Gateway 密钥页面 创建一个 API 密钥
- 打开设置视图 (
agent: open settings) 并转到 Vercel AI Gateway 部分 - 输入您的 Vercel AI Gateway API 密钥
Vercel AI Gateway API 密钥将保存在您的钥匙串中。
如果定义了 VERCEL_AI_GATEWAY_API_KEY 环境变量,Zed 也会使用它。
您也可以在设置文件中为 Vercel AI Gateway 设置自定义端点:
{
"language_models": {
"vercel_ai_gateway": {
"api_url": "https://ai-gateway.vercel.sh/v1"
}
}
}Vercel v0
Vercel v0 是一个用于生成全栈应用的模型,对 Next.js 和 Vercel 等堆栈具有框架感知的补全功能。 它支持文本和图像输入,并提供快速的流式响应。
v0 模型是 OpenAI 兼容的模型,并且在面板的设置视图中 Vercel 作为一个专用的提供商出现。
要在 Zed 中开始使用它,请确保您首先创建了一个 v0 API 密钥。 一旦拥有它,直接将其粘贴到面板设置视图中的 Vercel 提供商部分。
然后,您应该在 Agent Panel 的模型下拉列表中找到它作为 v0-1.5-md。
xAI
Zed 包含一个专用的 xAI 提供商。您可以使用自己的 API 密钥来访问 Grok 模型。
- 在 xAI 控制台中创建一个 API 密钥
- 打开设置视图 (
agent: open settings) 并转到 xAI 部分 - 输入您的 xAI API 密钥
xAI API 密钥将保存在您的钥匙串中。如果定义了 XAI_API_KEY 环境变量,Zed 也会使用它。
注意:xAI API 是 OpenAI 兼容的,并且 Zed 还包含一个专用的 xAI 提供商。我们建议使用专用的
x_ai提供商配置,而不是 OpenAI API Compatible 方法。
自定义模型
Zed agent 已预配置了常见的 Grok 模型。如果您希望使用替代模型或自定义其参数,您可以通过将以下内容添加到您的 Zed 设置文件中来实现(如何编辑):
{
"language_models": {
"x_ai": {
"api_url": "https://api.x.ai/v1",
"available_models": [
{
"name": "grok-1.5",
"display_name": "Grok 1.5",
"max_tokens": 131072,
"max_output_tokens": 8192
},
{
"name": "grok-1.5v",
"display_name": "Grok 1.5V (Vision)",
"max_tokens": 131072,
"max_output_tokens": 8192,
"supports_images": true
}
]
}
}
}自定义提供商端点
只要它与提供商的 API 结构兼容,您就可以为不同的提供商使用自定义 API 端点。 为此,请将以下内容添加到您的设置文件中(如何编辑):
{
"language_models": {
"some-provider": {
"api_url": "http://localhost:11434"
}
}
}目前,some-provider 可以是以下任何值:anthropic, google, ollama, openai。
这与例如 OpenAI-compatible 模型所使用的基础设施相同。